255 resultados para O-H insertion
Resumo:
PURPOSE: To evaluate the feasibility, efficacy, and tolerance of self-expanding metallic stent insertion under fluoroscopic guidance for palliation of symptoms related to malignant gastroduodenal obstruction. MATERIALS AND METHODS: Seventy-two patients (38 men, 34 women) aged 25-98 years (mean, 62 years) with duodenal (n = 43), antropyloric (n = 13), surgical gastrojejunostomy (n = 10), or pyloroduodenal (n = 6) malignant obstruction were referred for insertion of self-expanding metallic stents over a 6-year period. Stent insertion was performed with use of a peroral or transgastric approach when necessary (n = 11). RESULTS: Stents were successfully inserted in 70 of the 72 patients (97%) and provided symptom relief in 65 patients (90%). Inserted stents were mainly uncovered vascular (n = 55) or enteral (n = 10) Wallstents. One hundred eight stents were initially inserted: one, two, three, or four stents were indicated in 43, 17, nine, and one patient, respectively. Mean follow-up was 119 days (range, 4-513 days). Mean stent patency was 113 days (range, 4-513 days). Mean survival of patients was 120 days. During follow-up, stent obstruction occurred in seven patients as a result of tumoral overgrowth (n = 5) or ingrowth (n = 2). Complications occurred in 12 of the 72 patients (17%), including stent migration (n = 8), stent fracture (n = 1), duodenal perforation (n = 1), and death related to general anesthesia (n = 1). CONCLUSION: Despite a significant complication rate, self-expanding metallic stent insertion under fluoroscopic guidance appears to be a feasible and useful technique in the palliative management of malignant gastroduodenal obstruction.
Resumo:
The high-affinity siderophore salicylate is an intermediate in the biosynthetic pathway of pyochelin, another siderophore and chelator of transition metal ions, in Pseudomonas aeruginosa. The 2.5-kb region upstream of the salicylate biosynthetic genes pchBA was sequenced and found to contain two additional, contiguous genes, pchD and pchC, having the same orientation. The deduced amino acid sequence of the 60-kDa PchD protein was similar to those of the EntE protein (2,3-dihydroxybenzoate-AMP ligase) of Escherichia coli and other adenylate-forming enzymes, suggesting that salicylate might be adenylated at the carboxyl group by PchD. The 28-kDa PchC protein showed similarities to thioesterases of prokaryotic and eukaryotic origin and might participate in the release of the product(s) formed from activated salicylate. One potential product, dihydroaeruginoate (Dha), was identified in culture supernatants of iron-limited P. aeruginosa cells. The antifungal antibiotic Dha is thought to arise from the reaction of salicylate with cysteine, followed by cyclization of cysteine. Inactivation of the chromosomal pchD gene by insertion of the transcription and translation stop element omega Sm/Sp abolished the production of Dha and pyochelin, implying that PchD-mediated activation of salicylate may be a common first step in the synthesis of both metabolites. Furthermore, the pchD::omega Sm/Sp mutation had a strong polar effect on the expression of the pchBA genes, i.e., on salicylate synthesis, indicating that the pchDCBA genes constitute a transcriptional unit. A full-length pchDCBA transcript of ca. 4.4 kb could be detected in iron-deprived, growing cells of P. aeruginosa. Transcription of pchD started at tandemly arranged promoters, which overlapped with two Fur boxes (binding sites for the ferric uptake regulator) and the promoter of the divergently transcribed pchR gene encoding an activator of pyochelin biosynthesis. This promoter arrangement allows tight iron-mediated repression of the pchDCBA operon.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
PURPOSE: Reconstruction of the posterior cruciate ligament (PCL) yields less satisfying results than anterior cruciate ligament reconstruction with respect to laxity control. Accurate tibial tunnel placement is crucial for successful PCL reconstruction using arthroscopic tibial tunnel techniques. A discrepancy between anatomical studies of the tibial PCL insertion site and surgical recommendations for tibial tunnel placement remains. The objective of this study was to identify the optimal placement of the tibial tunnel in PCL reconstruction based on clinical studies. METHODS: In a systematic review of the literature, MEDLINE, EMBASE, Cochrane Review, and Cochrane Central Register of Controlled Trials were screened for articles about PCL reconstruction from January 1990 to September 2011. Clinical trials comparing at least two PCL reconstruction techniques were extracted and independently analysed by each author. Only studies comparing different tibial tunnel placements in the retrospinal area were included. RESULTS: This systematic review found no comparative clinical trial for tibial tunnel placement in PCL reconstruction. Several anatomical, radiological, and biomechanical studies have described the tibial insertion sites of the native PCL and have led to recommendations for placement of the tibial tunnel outlet in the retrospinal area. However, surgical recommendations and the results of morphological studies are often contradictory. CONCLUSIONS: Reliable anatomical landmarks for tunnel placement are lacking. Future randomized controlled trials could compare precisely defined tibial tunnel placements in PCL reconstruction, which would require an established mapping of the retrospinal area of the tibial plateau with defined anatomical and radiological landmarks.
Resumo:
Between 1995 and 2005, the number of aortic aneurysms treated annually using endovascular techniques (EVAR) increased from 0 to 50, including all aortic stages. Our organization includes a large team of surgeons, a stock of three complete families of endoprostheses (straight, conical and bifurcated), a mobile trolley with accessories (arterial introducer/introducer sheath, guide wire, catheters, balloons, etc.) and an appliance on wheels for intravascular ultrasound examination (IVUS). This appliance, together with a mobile fluoroscopy device (c-arm), allows endovascular aneurysms analysis of every operating room in our institution, usually without angiography or the use of contrast medium. In general, we are therefore not depending on substantial preoperative imaging in order to identify candidates for endovascular aneurysms repair and can treat abdominal and thoracic aortic ruptures without delay. For endovascular aortic aneurysms repair we distinguish between process steps on the one hand (determining indications, imaging of the access vessels, measurement using IVUS and road mapping via fluoroscopy, selection of implant, implant insertion, positioning, setting the implant, determining success, reconstruction of the access vessel and follow-up) and the level of competence on the other (assistant, senior and directing physicians). Our ultrasound supported technique for endovascular aneurysms repair has been successfully brought to other hospitals using an IVUS transporter and telementoring.
Resumo:
Introduction : La prise en charge des patients critiques nécessite dans la majorité des situations l'obtention rapide d'un accès vasculaire, afin d'administrer des médicaments, des solutés de remplissage, ou des produits sanguins. La mise en place d'un accès vasculaire peut s'avérer difficile chez ces patients. En cas d'échec de pose d'une voie veineuse périphérique, des abords vasculaires alternatifs existent. Il s'agit essentiellement de la pose d'une voie veineuse centrale, la réalisation d'une dénudation veineuse, ou la pose d'une voie intra-osseuse. Depuis le développement de dispositifs d'insertion « semi-automatique » à la fin des années 90, la voie intra-osseuse, traditionnellement réservée aux cas pédiatriques, est de plus en plus fréquemment utilisée chez les patients adultes. Le Service des Urgences du CHUV a introduit en 2009 les dispositifs d'insertion d'aiguilles intra-osseuses de type EZ-IO® (perceuse électrique), en salle de réanimation des urgences vitales (déchoquage), ainsi qu'au sein du secteur préhospitalier pour les interventions du SMUR de Lausanne et de l'hélicoptère REGA de la base de Lausanne. Par cette étude, nous voulions mettre en évidence les aspects épidémiologiques des patients ayant dû être perfusés par cet abord dans un contexte préhospitalier, ainsi que les circonstances cliniques ayant justifié un tel usage, le taux de succès, les éventuelles complications, les médicaments perfusés et la mortalité des patients ayant bénéficié de ce dispositif. Méthode: Chaque patient ayant bénéficié de la mise en place d'une voie intra-osseuse par EZ-IO® du 1er janvier 2009 au 31 décembre 2011 a été inclus. Les données récoltées étaient l'âge, le sexe, l'indication à la mise en place de l'intra-osseuse, la localisation, le taux de succès, les médicaments et fluides administrés, les complications, la mortalité à 48 heures et à la sortie de l'hôpital. Tous les articles mentionnant l'utilisation de ΙΈΖ-ΙΟ® dans des situations cliniques ont également été analysés par une revue de littérature structurée exhaustive, afin de comparer nos résultats avec les données de la littérature. Résultats : Cinquante-huit patients, représentant 60 intra-osseuses EZ-IO®, ont été inclus. Leur âge moyen (47 ans), le taux de succès (90%), les indications, la localisation de l'aiguille (98% au niveau du tibia proximal) et le taux de complications (0%) correspondent aux valeurs trouvées dans la littérature. Le taux de survie de nos patients est de 38% à 48 heures et de 29% à la sortie de l'hôpital. De nombreux médicaments ou solutés de perfusion ont été administrés; l'adrénaline restant le médicament le plus fréquemment administré par cette voie. Dans 7 cas, les patients ont bénéficié d'une induction d'anesthésie par voie intra-osseuse. La revue de littérature a permis de compiler 30 études distinctes, représentant un total de 1603 accès vasculaires de type EZ-IO®. Conclusion : La voie intra-osseuse s'avère fiable et rapide pour obtenir un accès vasculaire, avec un taux de complications très faible et permet l'administration d'un grand nombre de substances. D'autres études sont nécessaires pour évaluer l'impact de la voie intra osseuse, notamment en termes de mortalité, de complications tardives, ainsi que d'analyse coût/bénéfice de ce matériel.
Resumo:
Background: To determine whether misalignment structures such as duplications, repeats, and palindromes are associated to insertions/deletions (indels) in gp120, indicating that indels are indeed frameshift mutations generated by DNA misalignment mechanism. Methods: Cloning and sequencing of a fragment of HIV-1 gp120 spanning C2-C4 derived from plasma RNA in 12 patients with early chronic disease and naïve to antiretroviral therapy. Results: Indels in V4 involved always insertion and deletion of duplicated nucleotide segments, and AAT repeats, and were associated to the presence of palindromic sequences. No duplications were detected in V3 and C3. Palindromic sequences occurred with similar frequencies in V3, C3 and V4; the frequency of palindromes in individual genes was found to be significantly higher in structural (gp120, p ≤ 3.00E-7) and significantly lower in regulatory (Tat, p ≤ 9.00E-7) genes, as compared to the average frequency calculated over the full genome. Discussion: Indels in V4 are associated to misalignment structures (i.e. duplications repeat and palindromes) indicating DNA misalignment as the mechanism underlying length variation in V4. The finding that indels in V4 are caused by DNA misalignment has some very important implications: 1) indels in V4 are likely to occur in proviral DNA (and not in RNA), after integration of HIV into the host genome; 2) they are likely to occur as progressive modifications of the early founder virus during chronic infection, as more and more cells get infected; 3) frameshift mutations involving any number of base pairs are likely to occur evenly across gp120; however, only those mutants carrying a functional gp120 (indels as multiples of three base pairs) will be able to perpetuate the virus cycle and to keep spreading through the population.
Resumo:
Patients undergoing spinal surgery are at risk of developing thromboembolic complications even though lower incidences have been reported as compared to joint arthroplasty surgery. Deep vein thrombosis (DVT) has been studied extensively in the context of spinal surgery but symptomatic pulmonary embolism (PE) has engaged less attention. We prospectively followed a consecutive cohort of 270 patients undergoing spinal surgery at a single institution. From these patients, only 26 were simple discectomies, while the largest proportion (226) was fusions. All patients received both low molecular weight heparin (LMWH) initiated after surgery and compressive stockings. PE was diagnosed with spiral chest CT. Six patients developed symptomatic PE, five during their hospital stay. In three of the six patients the embolic event occurred during the first 3 postoperative days. They were managed by the temporary insertion of an inferior vena cava (IVC) filter thus allowing for a delay in full-dose anticoagulation until removal of the filter. None of the PE patients suffered any bleeding complication as a result of the introduction of full anticoagulation. Two patients suffered postoperative haematomas, without development of neurological symptoms or signs, requiring emergency evacuation. The overall incidence of PE was 2.2% rising to 2.5% after exclusion of microdiscectomy cases. The incidence of PE was highest in anterior or combined thoracolumbar/lumbar procedures (4.2%). There is a large variation in the reported incidence of PE in the spinal literature. Results from the only study found in the literature specifically monitoring PE suggest an incidence of PE as high as 2.5%. Our study shows a similar incidence despite the use of LMWH. In the absence of randomized controlled trials (RCT) it is uncertain if this type of prophylaxis lowers the incidence of PE. However, other studies show that the morbidity of LMWH is very low. Since PE can be a life-threatening complication, LMWH may be a worthwhile option to consider for prophylaxis. RCTs are necessary in assessing the efficacy of DVT and PE prophylaxis in spinal patients.
Resumo:
Résumé Ce travail poursuit deux buts. Le premier objectif, d'ordre théorique et méthodologique, est d'aborder les phénomènes d'intertextualité selon une perspective jusqu'ici négligée, qui prend à rebours le problème de l'intentionnalité, particulièrement aigu dans les études classiques plutôt que de partir du texte plus récent pour remonter à ses «modèles », il s'agit d'observer la circulation d'un corpus plus ancien dans l'espace et dans le temps et son interaction avec d'autres discours dans différents contextes. Le second but, lié à l'histoire littéraire, consiste à étudier la manière dont Sappho, seule femme au canon alexandrin des neuf poètes lyriques et assimilée pour cela à un Homère féminin ou à une dixième Muse, a joué à Rome un rôle de référence en matière de poésie d'amour. Pour ce faire, l'enquête s'articule autour d'un poème emblématique de Sappho, le fameux fragment 31 avec sa liste de symptômes de passion érotique, et de trois de ses échos marqués, chez Catulle, Lucrèce et Horace, à une époque où l'on assiste à un développement intense de la poésie d'amour latine. Chaque chapitre propose une analyse comparative systématique en cercles concentriques, partant de l'énoncé comparable - la pathographie - et abordant ensuite son insertion à des poèmes différents pour élargir enfin l'investigation aux contextes. Entre la Lesbos du VIIe-VIe et la Rome du Ier siècle avant notre ère intervient un changement majeur dans le type de contexte déterminant pour la fonction et la signification des poèmes d'une situation de communication orale, où chaque chant prend son sens dans une occasion particulière de performance, on passe à un environnement principalement écrit, où l'élément décisif est plutôt le co-texte, le recueil où le poème s'insère et entre en relation avec d'autres. À la pragmatique des chants de Sappho, liée à la vie de son groupe féminin à Lesbos, puis aux banquets par le biais desquels ils ont été transmis, répondent les poétiques de Catulle, Lucrèce et Horace, qui se définissent notamment par rapport à eux avec des réseaux d'échos reflétant souvent, de façon plus ou moins contrastée, différentes traditions de réception des textes de la poétesse, voire la structure du recueil alexandrin de ses poèmes.
Resumo:
Zur Anlage des tibialen Bohrkanals bei der Rekonstruktion des hinteren Kreuzbandes (HKB) wird imAllgemeinen eine intraoperative Bildwandlerkontrolle empfohlen.Hypothese: Die Anlage des tibialen Bohrkanals unter rein arthroskopischer Kontrolle erlaubt eineanatomische und reproduzierbare Bohrkanalplatzierung.Material/Methoden: Von Februar 2007 bis Dezember 2009 wurden 109 arthroskopischeRekonstruktionen des hinteren Kreuzbandes in tibialer Tunneltechnik durchgeführt. Der tibialeBohrkanal wurde jeweils nach Anlage eines postero-medialen Arthroskopieportals und Darstellung deranatomischen HKB-Insertion unter direkter Sicht gebohrt. Nach eingehender Qualitätskontrolle derpostoperativen Röntgenbilder wurden 51 standardisierte Aufnahmen ausgewertet. Im a.-p.-Bild wurdeder Abstand des Tunnelzentrums von der medialen Kante des Tibiaplateaus gemessen und inRelation zur Gesamtbreite des Tibiaplateaus gesetzt. Im strikt seitlichen Bild wurde der Abstand desTunnelzentrums senkrecht zur Tangente des medialen Tibiaplateaus gemessen.Ergebnisse: Relativ zur medialen Tibiakante befand sich das Zentrum des dorsalen tibialenTunnelausgangs im Mittel bei 50,6 % ± 4.9 (Range 40 - 64) des Tibiakopfdurchmessers. Im seitlichenBild lag der Tunnelausgang im Mittel 11,6 mm ± 4,4 (Range 4,5 - 27,5) unterhalb der Oberkante desmedialen Tibiaplateaus. Es wurden keine postoperativen Gefäß- oder Nervenläsionen beobachtet.Schlussfolgerung: Gemäß den Empfehlungen der Literatur zeigen die Ergebnisse der vorliegendeStudie, dass die Anlage des tibialen Bohrkanals unter rein arthroskopischer Kontrolle anatomischkorrekte und reproduzierbare Ergebnisse erzielt. Dabei ist eine regelgerechte arthroskopischeDarstellung der HKB-Insertion eine unbedingte Voraussetzung. Vorteile dieses Vorgehens sind dieVermeidung von Strahlenbelastung für Patient und Operateur, Zeit- und Raumersparnis im OP unddie Möglichkeit, den Bohrvorgang unter direkter Sicht zu kontrollieren.
Resumo:
Abstract Activation of the Wnt pathway through mutation of the adenomatous polyposis coli and 13-catenin genes is a hallmark of colon cancer. These mutations lead to constitutive activation of transcription from promoters containing binding sites for Tcf/LEF transcription factors. Tumour-selective replicating oncolytic viruses are promising agents for cancer therapy. They can in principle spread throughout a tumour mass until all the cancerous cells are killed, and clinical trials have shown that they are safe except at very high doses. Adenoviruses are interesting candidates for virotherapy because their biology is well understood and their small genome can be rapidly mutated. Adenoviruses with Tcf binding sites in the E2 early promoter replicate selectively in cells with an active Wnt pathway. Although these viruses can replicate in a broad panel of colon cancer cell lines, some colorectal cancer cells are only semi-permissive for Tcf-virus replication. The aim of my thesis was to increase the safety and the efficacy of Tcf-viruses for colon cancer virotherapy. I replaced the endogenous ElA viral promoter by four Tcf binding sites and showed that transcription from the mutant promoter was specifically activated by the Wnt pathway. A virus with Tcf binding sites in the ElA and E4 promoters was more selective for the Wnt pathway than the former Tcf-E2 viruses. Moreover, insertion of Tcf binding sites into all early promoters further increased viral selectivity, but reduced viral activity. I showed that Tcf-dependent transcription was inhibited by the interaction between ElA and p300, but deletion of the p300-binding site of ElA generally led to viral attenuation. In the semi-permissive cell lines, replication of Tcf-viruses remained lower than that of the wild-type virus. The E2 promoter was the most sensitive to the cell type, but I was unable to improve its activity by targeted mutagenesis. To increase the toxicity of the Tcf-E1A/E4 virus, I decided to express a suicide gene, yeast cytosine deaminase (yCD), late during infection. This enzyme converts the prodrug 5-FC to the cytotoxic agent 5-FU. yCD was expressed in a DNA replication-dependent manner and increased viral toxicity in presence of 5-FC. Tcf-ElA and yCD adenoviruses are potentially useful vectors for the treatment of liver metastases from colorectal tumours. Résumé Dans la quasi-totalité des cancers du côlon, la voie Wnt est activée par des mutations dans les gènes codant pour APC ou pour la (3-caténine. Ces mutations activent de façon constitutive la transcription de promoteurs contenant des sites de liaison pour les facteurs de transcription Tcf/LEF. Les virus réplicatifs spécifiques aux tumeurs sont des agents prometteurs pour la thérapie cancéreuse. En principe, ces vecteurs peuvent se propager dans une masse tumorale jusqu'à destruction de toutes les cellules cancéreuses, et des études cliniques ont démontré que de tels vecteurs n'étaient pas toxiques, sauf à de très hautes doses. Les adénovirus sont des candidats intéressants pour la thérapie virale car leur biologie est bien définie et leur petit génome peut être rapidement modifié. Des adénovirus comportant des sites de liaison à Tcf dans leur promoteur précoce E2 se répliquent sélectivement dans les cellules qui possèdent une voie Wnt active. Ces virus sont capables de se répliquer dans un grand nombre de cellules cancéreuses du côlon, bien que certaines de ces cellules ne soient que semi-permissives pour la réplication des virus Tcf. Le but de ma thèse était d'augmenter la sécurité et l'efficacité des virus Tcf. Le promoteur viral endogène ElA a été remplacé par quatre sites de liaison à Tcf, ce qui a rendu son activation dépendante de la voie Wnt. Un virus comportant des sites de liaison pour Tcf dans les promoteurs ElA et E4 était plus sélectif pour la voie Wnt que les précédents virus Tcf-E2, et un virus comportant des sites Tcf dans tous les promoteurs précoces était encore plus sélectif, mais moins actif. J'ai montré que l'interaction entre ElA et p300 inhibait la transcription dépendante de Tcf, mais la délétion du domaine concerné dans ElA a eu pour effet d'atténuer les virus. Dans les cellules semi-permissives, la réplication des virus Tcf était toujours plus basse que celle du virus sauvage. J'ai identifié le promoteur E2 comme étant le plus sensible au type cellulaire, mais n'ai pas pu augmenter son activité par mutagenèse. Pour augmenter la toxicité du virus Tcf-E1A/E4, j'ai décidé d'exprimer un gène suicide, la cytosine déaminase (yCD), pendant la phase tardive de l'infection. Cette enzyme transforme la procirogue 5-FC en l'agent cytotoxique 5-FU. yCD était exprimée après réplication de l'ADN viral et augmentait la toxicité virale en présence de 5-FC. Les virus Tcf-ElA et yCD sont des vecteurs potentiellement utiles pour le traitement des métastases hépatiques de cancers colorectaux.
Resumo:
Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.
Resumo:
Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).
Resumo:
1. 1. Summaries 1.1. Preamble and extended abstract The present thesis dissertation addresses the question of antiviral immunity from the particular standpoint of the adaptive T cell-mediated immune response. The experimental work is presented in the form of three published articles (two experimental articles and one review article, see sections 4.1, 4.2 and 4.3 on pages 73, 81 and 91, respectively), describing advances both in our understanding of viral control by CD8 T lymphocytes, and in vaccine development against the Human Immunodeficiency Virus Type 1 (HIV-1). Because the articles focus on rather specialized areas of antiviral immunity, the article sections are preceded by a general introduction (section 3) on the immune system in general, and on four viruses that were addressed in the experimental work, namely HIV-1, Cytomegalovirus (CMV), Epstein Barr Virus (EBV) and Influenzavirus (Flu). This introduction section is aimed at providing a glimpse on viral molecular biology and immunity, to help the hypothetical non-expert reader proceeding into the experimental part. For this reason, each section is presented as individual entity and can be consulted separately. The four viruses described are of peculiar relevance to immunity because they induce an array of opposite host responses. Flu causes a self limiting disease after which the virus is eradicated. CMV and EBV cause pauci-symptomatic or asymptomatic diseases after which the viruses establish lifelong latency in the host cells, but are kept in check by immunity. Eventually, HIV-1 establishes both latency - by inserting its genome into the host cell chromosome - and proceeds in destroying the immune system in a poorly controlled fashion. Hence, understanding the fundamental differences between these kinds of viral host interactions might help develop new strategies to curb progressive diseases caused by viruses such as HIV-1. Publication #1: The first article (section 4.1, page 73) represents the main frame of my laboratory work. It analyses the ability of CD8 T lymphocytes recovered from viral-infected patients to secrete interferon γ (IFN-γ) alone or in conjunction with interleukin 2 (IL-2) when exposed in vitro to their cognate viral antigens. CD8 T cells are instrumental in controlling viral infection. They can identify infected cells by detecting viral antigens presented at the surface of the infected cells, and eliminate both the cell and its infecting virus by triggering apoptosis and/or lysis of the infected cell. Recognition of these antigens triggers the cognate CD8 cells to produce cytokines, including IFN-γ and IL-2, which in turn attract and activate other pro-inflammatory cells. IFN-γ triggers both intrinsic antiviral activity of the infected cells and distant activation of pro-inflammatory cells, which are important for the eradication of infection. IL-2 is essential for clonal expansion of the antigen (Ag)-specific CD8 T cell. Hence the existence of Ag-specific CD8 cells secreting both IFN-γand IL-2 should be beneficial for controlling infection. In this first work we determined the percentage of IFN-y/IL-2 double positive and single IFN-γsecreting CD8 T cells against antigens HIV-1, CMV, EBV and Flu in three groups of subjects: (i) HIV-1 infected patients progressing to disease (progressors), (ii) HIV-1-infected subjects not progressing to disease (long-term non progressors or LTNP), and (iii) HIV negative blood donors. The results disclosed a specific IFN-y/IL-2 double positive CD8 response in all subjects able to control infection. In other words, IFN-y/IL-2 double positive CD8 cells were present in virus-specific CD8 T cells against Flu, CMV and EBV as well against HIV-1 in LTNP. In contrast, progressors only had single IFN-γsecreting CD8 T cells. Hence, the ability to develop an IFN-y/IL-2 double positive response might be critical to control infection, independently of the nature of the virus. Additional experiments helped identify the developmental stage of the missing cells (using different markers such as CD45RA and CCR7) and showed a correlation between the absence of IL-2 secreting CD8 T cells and a failure in the proliferation capacity of virus-specific CD8 T cells. Addition of exogenous IL-2 could restore clonal expansion of HIV-1 specific CD8 T cells, at least in vitro. It could further been shown, that IL-2 secreting CD8 T cells are sufficient to support proliferation even in absence of CD4 help. However, the reason for the missing IFN-y/IL-2 double positive CD8 T cell response in HIV-1 progessors has yet to be determined. Publication #2: The second article (section 4.2, page 81) explores new strategies to trigger CD8 T cell immunity against specific HIV-1 proteins believed to be processed and exposed as "infection signal" at the surface of infected cells. Such signals consist of peptide fragments (8- 13 amino acids) originating from viral proteins and presented to CD8 T cells in the frame of particular cell surface molecules of the major histocompatibility complex class I* (MHC I). To mimic "natural" viral infection, the HIV-1 polyprotein Gagpolnef was inserted and expressed in either of two attenuated viruses i.e. vaccinia virus (MVA) or poxvirus (NYVAC). Mice were infected with these recombinant viruses and specific CD8 T cell response to Gagpolnef peptides was sought. Mice could indeed mount a CD8 T cell response against the HIV-1 antigens, indicating that the system worked, at least in this animal model. To further test whether peptides from Gagpolnef could also be presented in the frame of the human MHC class I proteins, a second round of experiments was performed in "humanized" transgenic mice expressing human MHC molecules. The transgenic mice were also able to load Gagpolnef peptides on their human MHC molecule, and these cells could be detected and destroyed by Ag-specific CD8 T cells isolated from HIV-1-infected patients. Therefore, expressing Gagpolnef on attenuated recombinant viruses might represent a valid strategy for anti-HIV-1 immunization in human. Publication #3: This is a review paper (section 4.3, page 91) describing the immune response to CMV and newly developed methods to detect this cellular immune response. Some of it focuses on the detection of T cells by using in vitro manufactured tetramers. These consist of four MHC class I molecules linked together and loaded with the appropriate antigenic peptide. The tetramer can be labeled with a fluorochrome and analyzed with a fluorescence-activated cell sorter. Taken together, the work presented indicates that (i) an appropriate CD8 T cell response consisting of IFN-y/IL-2 double positive effectors, can potentially control viral infection, including HIV-1 infection, (ii) such a response might be triggered by recombinant viral vaccines, and (iii) CD8 T cell response can be monitored by a variety of techniques, including recently-developed MHC class I tetramers. 1. 2. Préambule et résumé élargi Le présent travail de thèse s'intéresse à l'immunité antivirale du point de vue particulier de la réponse adaptative des cellules T. Le travail expérimental est présenté sous la forme de trois articles publiés (2 articles expérimentaux et 1 article de revue, voir sections 4.1, 4.2 et 4.3, pages 58, 66 et 77, respectivement), décrivant des progrès dans la compréhension du contrôle de l'infection virale par les lymphocytes T CD8, ainsi que dans le développement de nouveaux vaccins contre le Virus d'Immunodéficience de Humaine de type 1 (VIH-1). En raison du caractère spécialisé de l'immunité antivirale de type cellulaire, les articles sont précédés par une introduction générale (section 3), dont le but est de pourvoir le lecteur non avisé avec des bases nécessaire à une meilleure appréhension du travail expérimental. Cette introduction présente les grandes lignes du système immunitaire, et décrit de façon générale les 4 virus utilisés dans le travail expérimental: à savoir le virus VIH-1, le Cytomégalovirus (CMV), le virus Epstein Barr (EBV) et le virus Influenza A (Flu). Toutes les sections sont présentées de façon individuelle et peuvent être consultées séparément. La description des 4 virus a une pertinence particulière quant à leur interaction avec le système immun. En effet, ils induisent une panoplie de réponses immunitaires s'étendant aux extrêmes de la réaction de l'hôte. Influenza A est à l'origine d'une maladie cytopathique aiguë, au décours de laquelle le virus est éradiqué par l'hôte. CMV et EBV sont classiquement à l'origine d'infections pauci-symptomatiques, voire asymptomatiques, après lesquelles les virus persistent de façon latente dans la cellule hôte. Cependant, ils restent sous le contrôle du système immun, qui peut prévenir une éventuelle réactivation. Enfin, VIH-1 s'établit à la fois en infection latente - par l'insertion de son génome dans le chromosome des cellules hôtes - et en infection productive et cytopathique, échappant au contrôle immunitaire et détruisant ses cellules cibles. La compréhension des différences fondamentales entre ces différents types d'interactions virus-hôte devraient faciliter le développement de nouvelles stratégies antivirales. Article 1: Le premier article (section 4.1 Page 58) représente l'objet principal de mon travail de laboratoire. Il analyse la capacité des lymphocytes T CD8 spécifiques de différent virus à sécréter de l'interféron gamma (IFN-y) et/ou de l'interleukine 2 (IL-2) après stimulation par leur antigène spécifique. Les cellules T CD8 jouent un rôle crucial dans le contrôle des infections virales. Elles identifient les cellules infectées en détectant des antigènes viraux présentés à la surface de ces mêmes cellules, et éliminent à la fois les cellules infectées et les virus qu'elles contiennent en induisant l'apoptose et/ou la lyse des cellules cibles. Parallèlement, l'identification de l'antigène par la cellule T CD8 la stimule à sécréter des cytokines. L'IFN-γen est un exemple. L'IFN-γ stimule les cellules infectées à développer une activé antivirale intrinsèque. De plus, il attire sur place d'autres cellules de l'inflammation, et active leur fonction d'éradication des pathogènes. L'IL-2 est un autre exemple. L'IL-2 est essentielle à l'expansion clonale des cellules T CD8 spécifiques à un virus donné. Elle est donc essentielle à augmenter le pool de lymphocytes antiviraux. En conséquence, la double capacité de sécréter de l'IFN-γ et de IL-2 pourrait être un avantage pour le contrôle antiviral par les cellules T CD8. Dans ce travail nous avons comparé les proportions de lymphocytes T CD8 doubles positifs (IFN-γ/IL-2) et simples positifs (IFN-γ) chez trois groupes de sujets: (i) des patients infectés par VIH-1 qui ne contrôlent pas l'infection (progresseurs), (ii) des patients infectés par VIH-1, mais contrôlant l'infection malgré l'absence de traitement ("long term non progressors" [LTNP]) et (iii) des donneurs de sang négatifs pour l'infection à VIH-1. Les résultats ont montré que les individus capables de contrôler une infection possédaient des cellules T CD8 doubles positifs (IFN-γ/IL-2), alors que les patients ne contrôlant pas l'infection procédaient prioritairement des CD8 simples positifs (IFN-γ). Spécifiquement, les lymphocytes T spécifiques pour Flu, CMV, EBV, et VII-1-1 chez les LTNP étaient tous IFN-γ/IL-2 doubles positifs. Au contraire, les lymphocytes T CD8 spécifique à VIH-1 étaient IFN-γ simples positifs chez les progresseurs. La capacité de développer une réponse IFN-γ/IL-2 pourraient être primordiale pour le contrôle de l'infection, indépendamment de la nature du virus. En effet, il a été montré que l'absence de sécrétion d'IL2 par les lymphocytes T CD8 corrélait avec leur incapacité de proliférer. Dans nos mains, cette prolifération a pu être restaurée in vitro par l'adjonction exogène d'IL-2. Toutefois, la faisabilité de ce type de complémentation in vivo n'est pas claire. Des expériences additionnelles ont permis de préciser de stade de développement des lymphocytes doubles positifs et simples positifs par le biais des marqueurs CD45RA et CCR7. Il reste maintenant à comprendre pourquoi certains lymphocytes T CD8 spécifiques sont incapables à sécréter de l'IL-2. Article 2: Le deuxième article explore des nouvelles stratégies pour induire une immunité T CD8 spécifique aux protéines du VIH-1, qui sont édités et exposés à la surface des cellules infectées. Ces signaux consistent en fragments de peptide de 8-13 acide aminés provenant de protéines virales, et exposées à la surface des cellules infectées dans le cadre des molécules spécialisées d'histocompatibilité de classe I (en anglais "major histocompatibility class I" ou MHC I). Pour mimer une infection virale, la polyprotéine Gagpolnef du VIH-1 a été insérée et exprimée dans deux vecteurs viraux atténués, soit MVA (provenant de vaccinia virus) ou NYVAC (provenant d'un poxvirus). Ensuite des souris ont été infectées avec ces virus recombinants et la réponse T CD8 aux peptides issus de Gagpolnef a été étudiée. Les souris ont été capables de développer une réponse de type CD8 T contre ces antigènes du VIH-1. Pour tester si ces antigènes pouvaient aussi être présentés par dans le cadre de molécules MHC humaines, des expériences supplémentaires ont été faites avec des souris exprimant un MHC humain. Les résultats de ces manipulations ont montré que des cellules T CD8 spécifique aux protéines du VIH pouvaient être détectées. Ce travail ouvre de nouvelles options quant à l'utilisation des virus recombinants exprimant Gagpolnef comme stratégie vaccinale contre le virus VIH-I chez l'homme. Article 3: Ces revues décrivent la réponse immunitaire à CMV ainsi que des nouvelles méthodes pouvant servir à sa détection. Une partie du manuscrit décrit la détection de cellule T à l'aide de tétramères. Il s'agit de protéines chimériques composées de 4 quatre molécules MHC liées entre elles. Elles sont ensuite "chargées" avec le peptide antigénique approprié, et utilisée pour détecter les cellules T CD8 spécifiques à ce montage. Elles sont aussi marquées par un fluorochrome, qui permet une analyse avec un cytomètre de flux, et l'isolement ultime des CD8 d'intérêt. En résumé, le travail présenté dans cette thèse indique que (i) une réponse T CD8 appropriée - définie par la présence des cellules effectrices doublement positives pour l'IFN-γ et l'IL-2 - semble indispensable pour le contrôle des infections virales, y compris par le VIH-1, (ii) une telle réponse peut être induite par des vaccin viral recombinant, et (iii) la réponse T CD8 peut être analysée et suivie grâce à plusieurs techniques, incluant celle des tétramères de MHC class I. 1.3. Résumé pour un large public Le système immunitaire humain est composé de différents éléments (cellules, tissus et organes) qui participent aux défenses de l'organisme contre les pathogènes (bactéries, virus). Parmi ces cellules, les lymphocytes T CD8, également appelés cellules tueuses, jouent un rôle important dans la réponse immunitaire et le contrôle des infections virales. Les cellules T CD8 reconnaissent de manière spécifique des fragments de protéines virales qui sont exposés à la surface des cellules infectées par le virus. Suite à cette reconnaissance, les cellules T CD8 sont capables de détruire et d'éliminer ces cellules infectées, ainsi que les virus qu'elles contiennent. Dans le contexte d'une infection par le virus de l'immunodéficience humaine (VIH), le virus responsable du SIDA, il a pu être montré que la présence des cellules T CD8 est primordiale. En effet, en l'absence de ces cellules, les individus infectés par le VIH progressent plus rapidement vers le SIDA. Au cours de la vie, l'Homme est exposé à plusieurs virus. Mais à l'opposé du VIH, certains d'entre eux ne causent pas des maladies graves : par exemple le virus de la grippe (Influenza), le cytomégalovirus ou encore le virus d'Epstein-Barr. Certains de ces virus peuvent être contrôlés et éliminés de l'organisme (p. ex. le virus de la grippe), alors que d'autres ne sont que contrôlés par notre système immunitaire et restent présents en petite quantité dans le corps sans avoir d'effet sur notre santé. Le sujet de mon travail de thèse porte sur la compréhension du mécanisme de contrôle des infections virales par le système immunitaire : pourquoi certains virus peuvent être contrôlés ou même éliminés de l'organisme alors que d'autres, et notamment le VIH, ne le sont pas. Ce travail a permis de démontrer que les cellules T CD8 spécifiques du VIH ne sécrètent pas les mêmes substances, nécessaires au développement d'une réponse antivirale efficace, que les cellules T CD8 spécifiques des virus contrôlés (le virus de la grippe, le cytomégalovirus et le virus d'Epstein-Barr). Parallèlement nous avons également observé que les lymphocytes T CD8 spécifiques du VIH ne possèdent pas la capacité de se diviser. Ils sont ainsi incapables d'être présents en quantité suffisante pour assurer un combat efficace contre le virus du SIDA. La (les) différence(s) entre les cellules T CD8 spécifiques aux virus contrôlés (grippe, cytomégalovirus et Epstein-Barr) et au VIH pourront peut-être nous amener à comprendre comment restaurer une immunité efficace contre ce dernier.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.