999 resultados para Méthodes mixtes
Resumo:
Résumé Introduction et objectif : l'articulation du coude est vulnérable à l'enraidissement, en particulier après un traumatisme. Le but de cette étude est d'évaluer les résultats du traitement chirurgical des raideurs post-traumatiques du coude. Type d'étude : étude rétrospective de cohorte. Les patients : dix-huit patients ont été évalués cliniquement par un observateur indépendant dans un intervalle moyen de 16 mois (6 à 43) après avoir subi une arthrolyse ouverte du coude, avec comme indication opératoire une raideur post traumatique du coude. Les traumatismes subis étaient : 11 fractures isolées, 1 luxation isolée, 6 fracture-luxations complexes. Les prises en charge initiales étaient : non-chirurgicales pour 3 patients, résection de la tête radiale pour 1 patient, réduction ouverte et ostéosynthèse pour 14 patients. Les patients ont présenté des types de raideurs mixtes pour la plupart d'entre eux. Type d'intervention : arthrolyse ouverte du coude. Evaluation : la fonction du coude et la satisfaction des patients furent les principales données récoltées. Lacs de l'évaluation, les scores de SECEC (Société Européenne de Chirurgie d'Epaule et du Coude) ont été calculés. Une analyse radiologique a aussi été effectuée. Résultats : trois patients ont présenté des complications postopératoires mineures : 1 déhiscence de plaie, 1 infection sous-cutanée, 1 sérome. Aucune de ces complications n'a eu de répercussion sur le résultat final. Le gain d'amplitude articulaire moyen était de 40°, avec un gain moyen en flexion du coude de 14° (0°-45°), et de 26° en extension (5°-67°) Aucun patient n'a présenté d'instabilité du coude. Il n'y a pas eu de signe de progression d'arthrose sur les clichés radiographiques à la revue. Nous n'avons pas mis en évidence de rapport entre le type de raideur et la voie d'abord sur les résultats. Les patients ayant présentés les raideurs les plus importantes ont bénéficiés des meilleurs résultats en terme de mobilité (p<0.001). Les meilleurs résultats ont été obtenus pour les patients opérés dans la première année aptes le traumatisme initial (p=0.008). Le score SECEC moyen était de 88 points pour les coudes opérés (52-100), et de 96 points pour les coudes sains (88-100). Conclusion : l'arthrolyse ouverte confère de bons résultats pour les patients présentant une raideur post traumatique du coude. Les meilleurs résultats sont obtenus pour les patients présentant une raideur sévère, prise en charge dans l'année qui suit le traumatisme initial.
Subthalamic nucleus deep brain stimulation for Parkinson's disease : "Are we where we think we are ?
Resumo:
ABSTRACT High frequency electrical deep brain stimulation (DBS) of the subthalamic nucleus (STN) is a worldwide recognized therapy for the motor symptoms of Parkinson's disease in fluctuating patients who are progressively disabled despite medical treatment adjustments. However, such improvements emerge despite a lack of understanding of either the precise role of STN in human motor control or the mechanism(s) of action of DBS. Through the question "are we where we think we are", this thesis is first dedicated to the control of the position of the preoperatively defined target and of the implanted electrodes on magnetic resonance imaging (MRI). This anatomical approach will provide a way to identify more precisely the structure(s) involved by electrical stimulation. Then, a study of the correlation existing between the position of the preoperative target and the position of the electrode is performed. In this part, a unique opportunity is given to identify factors that may affect these correlation results. Finally, the whole work represents a « quality assessment » of the crucial steps of STN DBS: first, the target and the implanted electrode localisation procedures that have been developed in collaboration with the Radiological department; second the implantation procedure that has been performed nowadays on more than 50 parkinsonian patients in the Neurosurgical department of the Centre Hospitalier Universitaire Vaudois in collaboration with the Neurological department. This work is especially addressed to the multidisciplinary medical team involved in the surgical treatment of movement disorders, including also neurophysiologists, neuropsychologists and psychiatrists. RESUME La stimulation électrique à haute fréquence du noyau sous-thalamique est à ce jour mondialement reconnue pour le traitement des symptômes moteurs de la maladie de Parkinson chez des patients sévèrement atteints et chez qui la réponse fluctuante au traitement médicamenteux ne peut être améliorée de façon satisfaisante. Cependant, les résultats observés surviennent malgré une compréhension approximative et controversée du rôle réel du noyau sous-thalamique dans le contrôle du mouvement volontaire aussi bien que des mécanismes d'action de la stimulation cérébrale profonde. A travers la question « sommes-nous où nous pensons être », cette thèse est tout d'abord consacrée à l'étude du contrôle de la position de la cible définie avant l'intervention et de la position des électrodes implantées sur l'imagerie par résonance magnétique (IRM). Cette approche anatomique permettra d'identifier plus précisément la (les) structure(s) influencées par la stimulation électrique. Ensuite, une étude de la corrélation existant entre la position de la cible préopératoire et la position des électrodes implantées est effectuée. Elle a pour but de mettre en évidence les facteurs influençant les résultats de cette corrélation. Enfin, le travail dans son ensemble est un « contrôle de qualité » des étapes cruciales de la stimulation du noyau sous-thalamique : premièrement, des méthodes de localisation de la cible et des électrodes implantées effectuées sur IRM, développées en collaboration avec le service de Radiologie ; deuxièmement, de la méthode d'implantation utilisée à ce jour chez plus de 50 patients dans le service de Neurochirurgie du Centre Hospitalier Universitaire Vaudois en collaboration avec le service de Neurologie. Ce travail s'adresse spécialement aux équipes médicales pluridisciplinaires impliquées dans le traitement chirurgical des mouvements anormaux, incluant également des neurophysiologistes, des neuropsychologues et des psychiatres.
Resumo:
Introduction. - Le TBS ou Score Trabéculaire Osseux (TBS, Med- Imaps, France) est un index d'architecture osseuse apportant des informations indépendantes de la densité minérale osseuse (DMO), et calculé par la quantification des variations locales des niveaux de gris à partir d'examen de densitométrie (DXA) lombaire. Dans des études antérieures prospectives et cas-témoins, cet index a été considéré comme associé aux fractures. Nous avons comparé les effets du ranélate de strontium (RanSr) et de l'alendronate (ALN) sur l'architecture vertébrale à l'aide du TBS, chez des femmes ostéoporotiques ménopausées. Patients et méthodes. - Une analyse post hoc a été réalisée sur des DXA (Hologic and GE Lunar Devices) de 79 des 189 femmes incluses dans une étude en double aveugle et double placebo et réparties de façon randomisée entre un groupe à 2 g/jour de RanSr et un groupe à 70 mg/semaine d'ALN pendant 2 ans. Les paramètres de TBS ont été évalués en aveugle par TBS iNsight (v1,9) au niveau vertébral après 12 et 24 mois de traitement. Nous avons appliqué les règles de l'ISCD (International Society for Clinical Densitometry) pour chaque exclusion de vertèbre, de façon indépendante respectivement pour la DMO et le TBS. Des doubles mesures ayant été réalisées initialement, la reproductibilité est exprimée en % CV. Résultats. - Les caractéristiques initiales (moyenne ± DS) étaient identiques entre les groupes en termes d'âge, 69,2 ± 4,4 ans ; d'IMC, 23,8 ± 4,4 kg/m2 ; de T-score L1-L4, - 2,9 ± 0,9 et de TBS, 1,230 ± 0,09. Comme prévu, le coefficient de détermination entre la DMO et le TBS au niveau du rachis était très basse r2 = 0,12. Les reproductibilités brutes étaient respectivement de 1,1 et 1,6 % pour la DMO et le TBS au niveau vertébral. Après 1 et 2 ans, la DMO en L1-L4 a augmenté de façon significative de respectivement 5,6 % et 9 % dans le groupe RanSr et de respectivement 5,2 % et 7,6 % dans le groupe ALN. De même, le TBS au niveau vertébral a augmenté respectivement de 2,3 % (p < 0,001) et de 3,1 % (p < 0,001) dans le groupe RanSr et de 0,5 % (NS) et de 1 % (NS) dans le groupe ALN avec une différence entre groupe significative en faveur du RanSr (p = 0,04 et p = 0,03). Il n'y avait aucune corrélation entre la différence de DMO et de TBS à 1 ou 2 ans. Les deux traitements étaient bien tolérés. Discussion. - Ces résultats sur le TBS confortent des études précédentes qui sont en faveur de l'effet bénéfique du RanSr sur l'architecture osseuse. Conclusion. - Le ranélate de strontium a des effets plus importants que l'alendronate sur le score trabéculaire osseux, indice d'architecture osseuse au niveau vertébral, chez les femmes ayant une ostéoporose post-ménopausique, après 2 ans de traitement.
Resumo:
Introduction et but de l'étude. - Le Nutrition Day 2010 réalisédans le service de dialyse aiguë de notre CHU a montré un taux dedénutrition de 64 % chez le patient dialysé hospitalisé avec un déficitnutritionnel moyen le jour de dialyse de 1 000 kcal et 45 g deprotéines. Les horaires de repas dans l'unité d'hospitalisation et dedialyse au centre de dialyse se chevauchent. Le but de cette étude estd'évaluer l'impact de l'organisation institutionnelle sur l'apportprotéino-énergétique du patient hémodialysé hospitalisé.Matériel et Méthodes. - Étude exploratoire et transversale. Laconsommation alimentaire et les obstacles potentiels à l'alimentationd'origine logistique ont été relevés durant deux jours consécutifs,un jour de dialyse (JD) et un jour sans dialyse (JSD). Les motifsde non consommation ou de consommation partielle des repas etcollations ont été relevés auprès des patients immédiatement aprèsles repas principaux, au moyen d'entretiens semi-dirigés. Lesingesta ont été comparés aux besoins protéino-énergétiques pour lespatients hémodialysés (ESPEN, 2006). Une évaluation nutritionnellea été réalisée chez tous les patients.Résultats. - Vingt-six patients (85 % d'hommes) ont été inclus,âgés de 65,7 ± 10,6 ans (moy ± ET). Le BMI moyen est de 24,9± 5,9 kg/m2, le score de Charlson de 7,2 ± 2,7 et 54 % ont un NRS-2002 ≥ 3. Plus de deux tiers des patients (68 %) ont perdu du poidset 64 % sont dénutris. Au total, 147 repas et 56 collations ont été étudiés,dont 74 repas et 32 collations pour le JD. Le JD, 56 % des collationsne sont pas consommées contre 21 % le JSD. La couverturemoyenne des besoins énergétiques et protéiques le JD est respectivementde 48 % et 57 %, sans différence avec le JSD. Les motifs denon consommation les plus fréquemment cités sont, par ordredécroissant : satiété précoce, inappétence, dégoût des mets proposés,peurs et représentations alimentaires et mises à jeun pour procéduresmédicales. Ils sont identiques les JD et les JSD. Lesobstacles à l'alimentation inhérents au patient sont 2,6 fois plus fréquentsque ceux liés à l'organisation hospitalière. Une douleur(légère à modérée), une dyspnée et une xérostomie affectent respectivement100 %, 54 % et 48 % des patients, qui ne considèrent pasces symptômes comme une cause de non consommation alimentaire.Conclusion. - Les apports protéino-énergétiques sont insuffisantset près de deux tiers des sujets sont dénutris. L'organisationhospitalière n'est pas identifiée par les patients comme un obstacleexpliquant le déficit énergétique et protéique quotidien. Les obstaclesà l'alimentation orale sont principalement inhérents à l'état desanté des patients. L'instauration d'une alimentation spécifique auxpatients dialysés hospitalisés (« humide », fractionnée, enrichie enprotéines et en énergie) de même que la prescription plus systématiqued'un support nutritionnel devraient contribuer à la couverturede leurs besoins nutritionnels.
Resumo:
Rapport de synthèse : Introduction: la prévalence de l'insuffisance rénale chronique (IRC) augmente et malgré les traitements de remplacement rénal telle que la transplantation ou la dialyse, la mortalité chez des patients atteints d'une IRC reste très élevée. Les maladies cardiovasculaires sont la cause principale de mortalité chez ces patients, et le risque de décès dú à une complication cardiovasculaire est chez eux accru de 10 à 20 fois par rapport à la population générale. Méme si les facteurs de risque cardiovasculaires «traditionnels », principalement l'hypertension artérielle et le diabète sont très prévalents chez les patients avec IRC, ils sont insuffisants pour expliquer l'excès de mortalité cardiovasculaire. D'autres facteurs de risques « nontraditionnels » comme l'accumulation du diméthylarginine asymétrique (ADMA), un inhibiteur endogène de la synthase d'oxyde d'azote (NO), semblent aussi être importants. Chez les patients avec IRC, des taux élevés d'ADMA sont un puissant facteur prédictif indépendant de la mortalité cardiovasculaire. Il a également été démontré chez des souris que l'ADMA peut étre une cause directe de dysfonction endothéliale. Cette dernière joue un rôle primordial dans le développement de l'athérosclérose, cause principale des complications cardiovasculaires. Le but du présent travail est de tester l'hypothèse qu'une réduction du taux d'ADMA après une séance unique d'hémodialyse améliore la dysfonction endothéliale. Méthodes: la dysfonction endothéliale peut être évaluée dans les microvaisseaux de la péan de façon non invasive par fluxmétrie laser Doppler. La vasodilatation cutanée induite par un échauffement local de 34° à 41 °C (hyperémie thermique) est connue pour être dépendante de la production endothéliale de NO et a été utilisée dans plusieurs études cliniques pour évaluer la dysfonction endothéliale. Nous avons recruté 24 patients traités par hémodialyse chronique et également 24 sujets contrôles du même âge et sexe. Chez les patients dialysés, l'hyperémie thermique est mesuré une fois directement avant une séance d'hémodialyse, et une fois directement après une autre séance, toutes deux distantes de 2 à 7 jours. En même temps, les taux plasmatiques d'ADMA sont mesurés par la méthode de spectrométrie de masse en tandem. Chez les sujets contrôle, l'hyperémie thermique est également mesurée à deux reprises, à un intervalle de 2 à 7 jours comme chez les patients dialysés et les taux d'ADMA sont déterminés qu'une seule fois. Résultats: chez les patients dialysés, les réactions d'hyperémie thermique étaient superposables avant et après dialyse, mais moindre que chez les sujets contrôles. Par contre, les taux d'ADMA étaient plus élevés avant qu'après dialysé. Les taux d'ADMA après dialyse étaient similaires aux taux chez les sujets contrôles. Conclusion: cette étude montre que la vasodilatation dépendante de la production endothéliale de NO dans la microcirculation cutanée n'est pas influencée par les taux plasmatiques d'ADMA chez les patients dialysés. Ces résultats suggèrent que d'autres mécanismes sont responsables de la dysfonction endothéliale chez ces patients. Ceci met en question le concept que l'accumulation d'ADMA est un facteur causal du risque cardiovasculaire élevé et suggère que l'ADMA est juste un marqueur du milieu très athérogénique causé par l'IRC.
Resumo:
Thousands of chemical compounds enter the natural environment but many have unknown effects and consequences, in particular at low concentrations. This thesis work contributes to our understanding of pollution effects by using bacteria as test organisms. Bacteria are important for this question because some of them degrade and transform pollutants into less harmful compounds, but secondly because they themselves can be inhibited in their reproduction by exposure to toxic compounds. When inhibitory effects occur this may change the composition of the microbial com¬munity in the long run, leading to altered or diminished ecosystem services by those communities. As a result chemicals of anthropogenic origin may accumulate and per¬sist in the environment, and finally, affect higher organisms as well. In addition to acquiring basic understanding of pollutant effects at low concentrations on bacterial communities an applied goal of this thesis work was to develop bacteria-based tests to screen new organic chemicals for toxicity and biodégradation. In the first part of this work we developed a flow cytometry-based assay on SYT09 plus ethidium-bromide or propidium-iodide stained cells of Pseudomonas ûuorescens exposed or not to a variety of pollutants under oligotrophic growth conditions. Flow cytometry (FC) allows fast and accurate counting of bacterial cells under simul¬taneous assessment of their physiological state, in particular in combination with different fluorescent dyes. Here we employed FC and fluorescent dyes to monitor the effect that pollutants may exert on Pseudomonas ûuorescens SV3. First we designed an oligotrophic growth test, which enabled us to follow population growth at low densities (104 - 10 7 cells per ml) using 0.1 mM sodium acetate as carbon source. Cells in the oligotrophic milieu were then exposed or not to a variety of common pollutants, such as 2-chlorobiphenyl (2CBP), naphthalene (NAH), 4-chlorophenol (4CP), tetradecane (TD), mercury chloride (HgCl2) or benzene, in different dosages. Exposed culture samples were stained with SYT09 (green fluorescent dye binding nucleic acids, generally staining all cells) in combination with propidium iodide (PI) or ethidium bromide (EB), both dyes being membrane integrity indicators. We ob- served that most of the tested compounds decreased population growth in a dosage- dependent manner. SYT09/PI or SYT09/EB staining then revealed that chemical exposure led to arisal of subpopulations of live and injured or dead cells. By modeling population growth on the total cell numbers in population or only the subpopulation of live cells we inferred that even in stressed populations live cells multiply at rates no different to unexposed controls. The net decrease in population growth would thus be a consequence of more and more cells being not able to multiply at all, rather than all cells multiplying at slower rates. In addition, the proportion of injured cells correlated to the compound dosage. We concluded that the oligotrophic test may be useful to asses toxicity of unknown chemicals on a variety of model bacteria. Mul¬tiple tests can be run in parallel and effects are rapidly measured within a period of 8 hours. Interestingly, in the same exposure tests with P. fluorescens SV3 we observed that some chemicals which did not lead to a reduction of net population growth rates did cause measurable effects on live cells. This was mainly observed in cells within the live subpopulation as an increase of the EB fluorescence signal. We showed that SYT09/EB is a more useful combination of dyes than SYT09/PI because PI fluorescence tend to increase only when cells are effectively dead, but not so much in live cells (less then twofold). In contrast, EB geometric mean fluorescence in live cells increased up to eightfold after exposure to toxic compounds. All compounds even at the lowest concentration caused a measurable increase in EB geometric mean fluorescence especially after 2 h incubation time. This effect was found to be transient for cells exposed to 2CBP and 4CP, but chronic for cells incubated with TD and NAH (ultimately leading to cell death). In order to understand the mechanism underlying the observed effects we used known membrane or energy uncouplers. The pattern of EB signal increase in chemical-exposed populations resembled mostly that of EDTA, although EB fluorescence in EDTA-treated or pasteurized cells was even higher than after exposure to the four test chemicals. We conclude that the ability of cells to efflux EB under equilibrium conditions is an appropriate measure for the potential of a chemical to exert toxicity. Since most bacterial species possess efflux systems for EB that all require cellular energy, our test should be more widely relevant to infer toxicity effects of chemical exposure on the physiological status of the bacterial cell. To better understand the effect of toxicant exposure on efflux defense systems, we studied 2-hydroxybiphenyl toxicity to Pseudomonas azeiaica HBP1. We showed that 2-HBP exerts toxicity even to P. azelaica HBP1, but only at concentrations higher than 0.5 mM. Above this concentration transient loss of membrane polarization and integrity occurred, which we conclude from staining of growing cells with fluorescent dyes. Cells finally recover and resume growth on 2HBP. The high resistance of P. azelaica HBP1 to 2-HBP was found to be the result of an efficient MexABOprM- type efflux pump system counteracting passive influx of this compound into the membrane and cellular interior. Mutants with disrupted mexA, mexB and oprM genes did no longer grow on 2-HBP at concentrations above 100 μΜ, whereas below this concentration we found 2-HBP-concentration dependent decrease of growth rate. The MexAB-OprM system in P. azeiaica HBP1 is indeed an efflux pump for ethidium bromide as well. By introducing gfp reporter fusions responsive to intracellular 2- HBP concentrations into HBP1 wild-type or the mutants we demonstrated that 2HBP enters into the cells in a similar way. In contrast, the reporter system in the wild-type cells does not react to 2-HBP at an outside concentration of 2.4 μΜ, whereas in mutant cells it does. This suggests that wild-type cells pump 2-HBP to the outside very effectively preventing accumulation of 2-HBP. 2HBP metabolism, therefore, is not efficient enough to lower the intracellular concentration and prevent toxicity. We conclude that P. azelaica HBP1 resistance to 2-HBP is mainly due to an efficient efflux system and that 2HBP in high concentrations exerts narcotic effects on the bacterial membrane. In the part of this thesis, we investigated the possibilities of bacteria to degrade pollutants at low concentrations (1 mg per L and below). As test components we used 2-hydroxybiphenyl, antibiotics and a variety of fragrances, many of which are known to be difficult to biodegrade. By using accurate counting of low numbers of bacterial cells we could demonstrate that specific growth on these compounds is possible. We demonstrated the accuracy of FC counting at low cell numbers (down to 103 bacterial cells per ml). Then we tested whether bacterial population growth could be specifically monitored at the expense of low substrate concentrations, us¬ing P. azelaica HBP1. A perfect relationship was found between growth rate, yield and 2-HBP concentrations in the range of 0.1 up to 5 mg per L. Mixing P. azelaica within sludge, however, suggested that growth yields in a mixed community can be much lower than in pure culture, perhaps because of loss of metabolic intermediates. We then isolated new strains from activated sludge using 2-HBP or antibiotics (Nal, AMP, SMX) at low concentrations (0.1-1 mg per L) as sole carbon and energy sub¬strate and PAO microdishes. The purified strains were then examined for growth on their respective substrate, which interestingly, showed that all strains can not with¬stand higher than 1 or 10 mg per L concentrations of target substrate. Thus, bacteria must exist that contribute to compound degradation at low pollutant concentrations but are inhibited at higher concentrations. Finally we tested whether specific biomass growth (in number of cells) at the expense of pollutants can also be detected with communities as starting material. Hereto, we focused on a number of fragrance chemicals and measured community biomass increase by flow cytometry cell counting on two distinct starter communities: (i) diluted Lake Geneva water, and dilute activated sludge from a wastewater treatment plant. We observed that most of the test compounds indeed resulted in significant biomass increase in the starter community compared to a no-carbon added control, but activated sludge and lake Geneva water strongly differed (almost mutually ex¬clusive) in their capacity to degrade the test chemicals. In two cases for activated sludge the same type of microbial community developed upon compound exposure, as concluded from transcription fragment length polymorphism analysis on community purified and PCR amplified 16S rRNA gene fragments. To properly test compound biodegradability it is thus important to use starter communities of different origin. We conclude that FC counting can be a valuable tool to screen chemicals for their biodegradability and toxicity. - Des milliers de produits chimiques sont libérés dans l'environnement mais beaucoup ont des effets inconnus, en particulier à basses concentrations. Ce travail de thèse contribue à notre comprehension des effets de la pollution en utilisant des bacteries comme des organismes-tests. Les bacteries sont importantes pour etudier cette ques¬tion car certaines d'entre elles peuvent degrader ou transformer les polluants, mais également parce qu'elles-mmes peuvent tre inhibees dans leur reproduction après avoit ete exposees à ces composes toxiques. Quand des effets inhibiteurs ont lieu, la composition de la communauté microbienne peut tre changee à long terme, ce qui mène à une reduction du service d'ecosystème offert par ces communautés. En consequence, après leur liberation dans l'environnement, les produits chimiques d'origine anthropogenique peuvent soit s'y accumuler et per¬sister, exerant ainsi des effets encore inconnus sur les organismes vivants. En plus d'acquérir des connaissances de base sur les effets des polluants à basses concentra¬tions sur les communautés microbiennes, un but applique de cette thèse était de développer des tests bases sur les bacteries afin d'identifier de nouveau composes pour leur toxicité ou leur biodégradation. Dans la première partie de ce travail, nous avons developpe un test base sur la cytometrie de flux (FC) sur des cellules de Pseudomonas fluorescens colorees par du bromure d'ethidium ou de l'iodure de propidium et exposees ou non à une palette de polluants sous des conditions de croissance oligotrophique. La cytometrie de flux est une technique qui connaît de nombreuses applications dans la microbiologie environ¬nementale. Cela est principalement du au fait qu'elle permet un comptage rapide et precis ainsi que l'évaluation de l'état physiologique, en particulier lorsqu'elle est combinée h des colorations fluorescentes. Ici, nous avons utilise la technique FC et des colorants fluorescents afin de mesurer l'effet que peuvent exercer certains pollu¬ants sur Pseudomonas ûuorescens SV3 . D'abord nous avons conu des tests oligo- trophiques qui nous permettent de suivre la croissance complète de cellules en culture h des densites faibles (104 -10 7 cellules par ml), sur de l'acetate de sodium à 0.1 mM, en presence ou absence de produits chimiques (2-chlorobiphenyl (2CBP), naphthalène (NAH), 4-chlorophenol (4CP), tetradecane (TD), chlorure de mercure(II) (HgCl2)) à différentes concentrations. Afin de montrer le devenir des bacteries tant au niveau de la cellule individuelle que celui de la population globale, après exposition à des series de composes chimiques, nous avons compte les cellules colorees avec du SYT09 (col¬orant fluorescent vert des acides nucléiques pour la discrimination des cellules par rapport au bruit de fond) en combinaison avec l'iodure de propidium (PI) ou le bromure d'ethidium (EB), indicateurs de l'intégrité de la membrane cellulaire avec FC. Nous avons observe que de nombreux composes testes avaient un effet sur la croissance bacterienne, resultant en une baisse du taux de reproduction de la pop¬ulation. En outre, la double coloration que nous avons utilisee dans cette etude SYT09/PI ou SYT09/EB a montre que les produits chimiques testes induisaient une reponse heterogène des cellules dans la population, divisant celle-ci en sous- populations "saine", "endommagee" ou "morte". Les nombres de cellules à partir du comptage et de la proportion de celles "saines" et "endommagees/mortes" ont ensuite ete utilises pour modeliser la croissance de P. ûuorescens SV3 exposee aux produits chimiques. La reduction nette dans la croissance de population est une consequence du fait que de plus en plus de cellules sont incapables de se reproduire, plutt que du fait d'une croissance plus lente de l'ensemble de la population. De plus, la proportion de cellules endommagees est correllee au dosage du compose chimique. Les résultats obtenus nous ont permis de conclure que le test oligotrophique que nous avons developpe peut tre utilise pour l'évaluation de la toxicité de produits chimiques sur différents modèles bacteriens. Des tests multiples peuvent tre lances en parallèle et les effets sont mesures en l'espace de huit heures. Par ailleurs, nous en déduisons que les produits chimiques exercént un effet sur la croissance des cellules de P. ûuorescens SV3, qui est heterogène parmi les cellules dans la population et depend du produit chimique. Il est intéressant de noter que dans les mmes tests d'exposition avec P. ûuorescens SV3, nous avons observe que certains composes qui n'ont pas conduit à une reduction du taux de la croissance nette de la population, ont cause des effets mesurables sur les cellule saines. Ceci a ete essentiellement observe dans la portion "saine" des cellules en tant qu'augmentation du signal de la fluorescence de 1ΈΒ. D'abord nous avons montre que SYT09/EB était une com¬binaison de colorants plus utile que celle de SYT09/PI parce que la fluorescence du PI a tendance à augmenter uniquement lorsque les cellules sont effectivement mortes, et non pas dans les cellules saines (moins de deux fois plus). Par opposi¬tion, la fluorescence moyenne de l'EB dans les cellules saines augmente jusqu'à huit fois plus après exposition aux composes toxiques. Tous les composes, mme aux plus basses concentrations, induisent une augmentation mesurable de la fluorescence moy¬enne de 1ΈΒ, plus particulièrement après deux heures d'incubation. Cet effet s'est revele tre transitoire pour les cellules exposees aux 2CNP et 4CP, mais est chro¬nique pour les cellules incubees avec le TD et le NAH (entranant la mort cellulaire). Afin de comprendre les mécanismes qui sous-tendent les effets observes, nous avons utilise des decoupleurs d'energie ou de membrane. L'augmentation du signal EB dans les populations causee par des produits chimiques ressemblait à celle exerce par le chelateur des ions divalents EDTA. Cependant, les intensités du signal EB des cellules exposees aux produits chimiques testees n'ont jamais atteint les valeurs des cellules traitees avec l'EDTA ou pasteurises. Nous en concluons que le test oli- gotrophique utilisant la coloration (SYT09/)EB des cellules exposees ou non à un produit chimique est utile afin d'evaluer l'effet toxique exerce par les polluants sur la physiologie bacterienne. Afin de mieux comprendre la reaction d'un système de defense par pompe à efflux après exposition à une toxine, nous avons étudié la toxicité du 2-hydroxybiphenyl (2-HBP) sur Pseudomonas azeiaica HBP1. Nous avons montre que le 2-HBP exerce une toxicité mme sur HBP1, mais uniquement à des concentrations supérieures à 0.5 mM. Au-dessus de cette concentration, des pertes transitoires d'intégrité et de polarization membranaire ont lieu, comme cela nous a ete montre par coloration des cellules en croissance. Les cellules sont finalement capables de se rétablir et de reprendre leur croissance sur 2-HBP. La forte resistance de P. azeiaica HBP1 h 2-HBP physiologie bacterienne s'est revele tre le résultat d'un système de pompe h efflux de type MexABOprM qui contre-balance l'influx passif de ce compose h travers la membrane. Nous avons montre, en construisant des mutants avec des insertions dans les gènes mexA, mexB and oprM et des fusions avec le gène rapporteur gfp, que l'altération de n'importe quelle partie du système d'efflux conduisait à accroître l'accumulation de 2-HBP dans la cellule, en comparaison avec la souche sauvage HBP1, provoquant une diminution de la resistance au 2-HBP ainsi qu'une baisse du taux de reproduction des cellules. Des systèmes d'efflux similaires sont répandus chez de nombreuses espèces bactériennes. Ils seraient responsables de la resistance aux produits chimiques tels que les colorants fluorescents (bromure d'ethidium) et des antibiotiques. Nous concluons que la resistance de P. azelaica HBP1 à 2-HBP est principalement due à un système d'efflux efficace et que 2-HBP, à des concentrations elevees, exerce un effet deletère sur la membrane bacterienne. En se basant sur le comptage des cellules avec la FC, nous avons developpe ensuite une methode pour evaluer la biodegradabilite de polluants tels que le 2-HBP ainsi que les antibiotiques (acide nalidixique (Nal), ampicilline (AMP) ou sulfamethoxazole (SMX)) à de faibles concentrations lmg par L et moins), par le suivi de la croissance spécifique sur le compose de cultures microbiennes pures et mixtes. En utilisant un comptage precis de faibles quantités de cellules nous avons pu demontrer que la croissance spécifique sur ces composes est possible. Nous avons pu illustrer la precision du comptage par cytometrie de flux à faible quantité de cellules (jusqu'à 10 3 cellules par ml). Ensuite, nous avons teste s'il était possible de suivre dynamiquement la croissance de la population de cellules sur faibles concentrations de substrats, en utilisant P. azelaica HBP1. Une relation parfaite a ete trouvee entre le taux de croissance, le rendement et les concentrations de 2-HBP (entre 0.1 et 5 mg par L). En mélangeant HBP1 à de la boue active, nous avons pu montrer que le rendement en communauté mixtes pouvait tre bien inférieur qu'en culture pure. Ceci étant peut tre le résultat d'une perte d'intermédiaires métaboliques. Nous avons ensuite isole de nouvelles souches à partir de la boue active en utilisant le 2-HBP ou des antibiotiques (Nal, AMP, SMX) h basses concentrations (0.1-1 mg par L) comme seules sources de carbone et d'energie. En combinaison avec ceci, nous avons également utilise des microplaques PAO. Les souches purifiees ont ensuite ete examinees pour leurs croissances sur leurs substrats respectifs. De faon intéressante, toutes ces souches ont montre qu'elles ne pouvaient pas survivre à des concentrations de substrats supérieures à 1 ou 10 mg par L. Ainsi, il existe des bacteries qui contribuent à la degradation de composes à basses concentrations de polluant mais sont inhibes lorsque ces concentrations deviennent plus hautes. Finalement, nous avons cherche à savoir s'il est possible de detecter une croissance spécifique à une biomasse au depend d'un polluant, en partant d'une communauté microbienne. Ainsi, nous nous sommes concentre sur certains composes et avons mesure l'augmentation de la biomasse d'une communauté grce à la cytometrie de flux. Nous avons compte deux communautés de depart distinctes: (i) une dilution d'eau du Lac Léman, et une dilution de boue active d'une station d'épuration. Nous avons observe que la plupart des composes testes ont entrane une augmentation de la biomasse de depart par rapport au control sans addition de source de carbone. Néanmoins, les échantillons du lac Léman et de la station d'épuration différaient largement (s'excluant mutuellement l'un l'autre) dans leur capacité à degrader les composes chimiques. Dans deux cas provenant de la station d'épuration, le mme type de communauté microbienne s'est developpe après exposition aux composes, comme l'a démontré l'analyse TRFLP sur les fragments d'ARN 16S purifie de la communauté et amplifie par PCR. Afin de tester correctement la biodegradabilite d'un compose, il est donc important d'utiliser des communautés de depart de différentes origines Nous en concluons que le comptage par cytometrie de flux peut tre un outil de grande utilité pour mettre en valeur la biodegradabillite et la toxicité des composes chimiques.
Resumo:
Die Trennung zwischen den verschiedenen Fachdisziplinen wurde in den letzten Jahren in verstärktem Maße befragt und hinsichtlich durchlässiger Stellen untersucht, die einen über monodisziplinäre Betrachtungen nicht erreichbaren Erkenntnisgewinn versprechen. Aus diesem Interesse an einer intensivierten interdisziplinären Zusammenarbeit ergeben sich nicht zuletzt auch für Geschichte und Kunstgeschichte neue Möglichkeiten, wie die jeweils eigenen Fachinhalte - mal von einer anderen Seite aus - betrachtet werden können und so zu ertragreichen neuen Themen und Forschungsfeldern führen. Das vorliegende Buch untersucht diese Erweiterungsbewegungen und fragt nach dem »Bild« (im weitesten Sinne) als historische, für das gesamtkulturelle Gedächtnis aufschlussreiche »Quelle« und als »Zeugnis«. Das breitgefächerte Spektrum der versammelten Themen von Autoren und Autorinnen aus unterschiedlichen geisteswissenschaftlichen Disziplinen reicht hierbei von theoretisch-methodischen Fragestellungen, die für den Diskurs und die Kanonbildung relevant sind, bis hin zu Beiträgen, die das Thema der Publikation spezifisch im Kontext der Gattungen Malerei, Grafik oder Fotografie beleuchten. Doch auch audiovisuelle bewegte oder virtuelle, zum Jetzt-Zeitpunkt bereits verflüchtigte Bilder finden in Form von neuen Medien, Film und Kulturfernsehen Beachtung, da auch sie zum zentralen Bestandteil und Dokument einer kollektiven Erinnerung werden können. Mit Beiträgen von: Juerg Albrecht, Nadja Elia-Borer, Pietro Giovannoli, Daniel Hornuff, Kornelia Imesch, Philippe Kaenel, Fabian Probst, Caroline Recher, Severin Ruegg, Philipp Stoellger, Jakob Tanner, Mélanie Laurance Tanner, Carsten-Peter Warnke, Anja Zimmermann.
Resumo:
Introduction : L'équipe mobile de soins palliatifs intra hospitalière (EMSP) du Centre Hospitalier Universitaire Vaudois (CHUV) a été mise en place en 1996. Il s'agit d'une des premières équipes interdisciplinaire de consultants mise à disposition d'un hôpital tertiaire. Le CHUV est l'hôpital de proximité de la ville de Lausanne (850 lits) mais aussi un hôpital de référence pour le reste du canton. En 2007, il y a eu 38'359 patients hospitalisés au CHUV. Les facteurs d'évaluation du taux d'utilisation d'une équipe mobile de soins palliatifs consultantes sont variés et complexes. Plusieurs méthodes sont décrites dans la littérature pour tenter de répondre à cette problématique. Avant de pouvoir évaluer l'utilisation de notre équipe mobile consultante de soins palliatifs intra hospitalière, il nous est apparu nécessaire de mieux décrire et définir la population qui meurt dans notre institution. McNamara et collègues ont proposé des critères qui classifient une population palliative comme « minimale », « intermédiaire » ou « maximale ». L'objectif de cette étude est de déterminer le taux de patients décédés au CHUV sur une période de 4 mois (Γ1 février au 31 mai 2007) suivie par notre EMSP en utilisant la méthode de classification «minimal » et « maximal ». Méthode : les archives médicales du CHUV ont été analysées pour chaque patient adulte décédé pendant la période sélectionnée. Les populations « maximal » et « minimal » de ces patients ont été ensuite déterminées selon des critères basés sur les codes diagnostiques figurants sur les certificats de décès. De ces deux populations, nous avons identifié à partir de notre base de données, les patients qui ont été suivie par notre EMSP. Le CHUV utilise les mêmes codes diagnostiques (International Classification of Disease, ICD) que ceux utilisés dans la classification de McNamara. Une recherche pilote effectuée dans les archives médicales du CHUV manuellement en analysant en profondeur l'ensemble du dossier médical a révélé que la classification de la population « minimal » pouvait être biaisée notamment en raison d'une confusion entre la cause directe du décès (complication d'une maladie) et la maladie de base. Nous avons estimé le pourcentage d'erreur de codification en analysé un échantillon randomisé de patients qui remplissait les critères « minimal ». Résultats : sur un total de 294 décès, 263 (89%) remplissaient initialement les critères « maximal » et 83 (28%) les critères «minimal», l'analyse de l'échantillon randomisé de 56 dossiers de patients sur les 180 qui ne remplissaient pas les critères « minimal » ont révélé que 21 (38%) auraient dus être inclus dans la population « minimal ». L'EMSP a vu 67/263 (25.5%) de la population palliative « maximal » et 56/151 (37.1%) de la population palliative « minimal ». Conclusion : cette étude souligne l'utilité de la méthode proposée par McNamara pour déterminer la population de patients palliatifs. Cependant, notre travail illustre aussi une limite importante de l'estimation de la population « minima » en lien avec l'imprécision des causes de décès figurant sur les certificats de décès de notre institution. Nos résultats mettent aussi en lumière que l'EMSP de notre institution est clairement sous- utilisée. Nous prévoyons une étude prospective de plus large envergure utilisant la même méthodologie afin d'approfondir les résultats de cette étude pilote.
Resumo:
Introduction. - L'ostéoporose est caractérisée par une diminution de la DMO et une altération de la microarchitecture (MA). La MA est évaluable en routine clinique par la mesure du Trabecular Bone Score (TBS), par simple ré-analyse de l'image lombaire de la DMO. Le TBS a démontré sa valeur diagnostique et pronostique, partiellement indépendante des FRC et le la DMO. Le but de la cohorte OsteoLaus est de combiner en routine clinique les FRC et les informations données par la DXA (DMO, TBS, VFA) et FRAX pour mieux identifier les femmes à risque de fracture. Matériels et Méthodes. - Dans la cohorte OsteoLaus (1 500 femmes, 50 à 80 ans, Lausanne, Suisse) les FRC, la DMO lombaire et de la hanche, l'IVA, le TBS et le FRAX sont relevés. La sensibilité et la spécificité des différents outils pour prédire les fractures vertébrales (FxV) de grade 2/3 ont été calculées. Résultats. - Nous avons inclus 451 femmes : âge 67,4 ± 6,7 ans, IMC 26,1 ± 4,6, DMO lombaire 0,943 ± 0,168 (T-score -1,4 SD), TBS 1,271 ± 0,103. La corrélation entre DMO et TBS est faible (r2 = 0,16). La prévalence des FxV 2/3 est de 9,3 %. Conclusion. - L'IMC a un mauvais pouvoir discriminant dans notre cohorte. Ces résultats préliminaires confirment l'indépendance partielle entre le TBS et la DMO. Une approche combinant TBS et FRAX semble être le meilleur compromis en termes de sensibilité/spécificité pour identifier les femmes avec une FxV 2/3 prévalente qui aurait pu être mal classifiée par la DMO ou le TBS ou le FRAX seuls.
Effects of fish oil on the neuro-endocrine responses to an endotoxin challenge in healthy volunteers
Resumo:
Résumé Introduction et hypothèse : Certains acides gras polyinsaturés de type n-3 PUFA, qui sont contenus dans l'huile de poisson, exercent des effets non-énergétiques (fluidité des membranes cellulaires, métabolisme énergétique et prostanoïdes, régulation génique de la réponse inflammatoire). Les mécanismes de la modulation de cette dernière sont encore mal connus. L'administration d'endotoxine (LPS) induit chez les volontaires sains une affection inflammatoire aiguë, comparable à un état grippal, associé à des modifications métaboliques et inflammatoires transitoires, similaires au sepsis. Ce modèle est utilisé de longue date pour l'investigation clinique expérimentale. Cette étude examine les effets d'une supplémentation orale d'huile de poisson sur la réponse inflammatoire (systémique et endocrinienne) de sujets sains soumis à une injection d'endotoxine. L'hypothèse était que la supplémentation d'huile de poisson réduirait les réponses physiologiques à l'endotoxine. Méthodes : Quinze volontaires masculins (âge 26.0±3.1 ans) ont participé à une étude randomisée, contrôlée. Les sujets sont désignés au hasard à recevoir ou non une supplémentation orale : 7.2 g d'huile de poisson par jour correspondant à un apport de 1.1 g/jour d'acides gras 20:5 (n-3, acide écosapentaénoïque) et 0.7 g/jour de 22:6 (n-3, acide docosahexaénoïque). Chaque sujet est investigué deux fois dans des conditions identiques : une fois il reçoit une injection de 2 ng par kg poids corporel de LPS intraveineuse, l'autre fois une injection de placebo. Les variables suivantes sont relevées avant l'intervention et durant les 360 min qui suivent l'injection :signes vitaux, dépense énergétique (EE) et utilisation nette des substrats (calorimétrie indirecte, cinétique du glucose (isotopes stables), taux plasmatique des triglycérides et FFA, du glucose, ainsi que des cytokines et hormones de stress (ACTH, cortisol, Adré, Nor-Adré). Analyses et statistiques :moyennes, déviations standards, analyse de variance (one way, test de Scheffé), différences significatives entre les groupes pour une valeur de p < 0.05. Résultats :L'injection de LPS provoque une augmentation de la température, de la fréquence cardiaque, de la dépense d'énergie et de l'oxydation nette des lipides. On observe une élévation des taux plasmatiques de TNF-a et IL-6, de la glycémie, ainsi qu'une élévation transitoire des concentrations plasmatiques des hormones de stress ACTH, cortisol, adrénaline et noradrénaline. L'huile de poisson atténue significativement la fièvre, la réponse neuro-endocrinienne (ACTH et cortisol) et sympathique (baisse de la noradrénaline plasmatique). Par contre, les taux des cytokines ne sont pas influencés par la supplémentation d'huile de poisson. Conclusion : La supplémentation d'huile de poisson atténue la réponse physiologique à l'endotoxine chez le sujet sain, en particulier la fièvre et la réponse endocrinienne, sans influencer la production des cytokines. Ces résultats soutiennent l'hypothèse que les effets bénéfiques de l'huile de poisson sont principalement caractérisés au niveau du système nerveux central, par des mécanismes non-inflammatoires qui restent encore à élucider.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Summary The specific CD8+ T cell immune response against tumors relies on the recognition by the T cell receptor (TCR) on cytotoxic T lymphocytes (CTL) of antigenic peptides bound to the class I major histocompatibility complex (MHC) molecule. Such tumor associated antigenic peptides are the focus of tumor immunotherapy with peptide vaccines. The strategy for obtaining an improved immune response often involves the design of modified tumor associated antigenic peptides. Such modifications aim at creating higher affinity and/or degradation resistant peptides and require precise structures of the peptide-MHC class I complex. In addition, the modified peptide must be cross-recognized by CTLs specific for the parental peptide, i.e. preserve the structure of the epitope. Detailed structural information on the modified peptide in complex with MHC is necessary for such predictions. In this thesis, the main focus is the development of theoretical in silico methods for prediction of both structure and cross-reactivity of peptide-MHC class I complexes. Applications of these methods in the context of immunotherapy are also presented. First, a theoretical method for structure prediction of peptide-MHC class I complexes is developed and validated. The approach is based on a molecular dynamics protocol to sample the conformational space of the peptide in its MHC environment. The sampled conformers are evaluated using conformational free energy calculations. The method, which is evaluated for its ability to reproduce 41 X-ray crystallographic structures of different peptide-MHC class I complexes, shows an overall prediction success of 83%. Importantly, in the clinically highly relevant subset of peptide-HLAA*0201 complexes, the prediction success is 100%. Based on these structure predictions, a theoretical approach for prediction of cross-reactivity is developed and validated. This method involves the generation of quantitative structure-activity relationships using three-dimensional molecular descriptors and a genetic neural network. The generated relationships are highly predictive as proved by high cross-validated correlation coefficients (0.78-0.79). Together, the here developed theoretical methods open the door for efficient rational design of improved peptides to be used in immunotherapy. Résumé La réponse immunitaire spécifique contre des tumeurs dépend de la reconnaissance par les récepteurs des cellules T CD8+ de peptides antigéniques présentés par les complexes majeurs d'histocompatibilité (CMH) de classe I. Ces peptides sont utilisés comme cible dans l'immunothérapie par vaccins peptidiques. Afin d'augmenter la réponse immunitaire, les peptides sont modifiés de façon à améliorer l'affinité et/ou la résistance à la dégradation. Ceci nécessite de connaître la structure tridimensionnelle des complexes peptide-CMH. De plus, les peptides modifiés doivent être reconnus par des cellules T spécifiques du peptide natif. La structure de l'épitope doit donc être préservée et des structures détaillées des complexes peptide-CMH sont nécessaires. Dans cette thèse, le thème central est le développement des méthodes computationnelles de prédiction des structures des complexes peptide-CMH classe I et de la reconnaissance croisée. Des applications de ces méthodes de prédiction à l'immunothérapie sont également présentées. Premièrement, une méthode théorique de prédiction des structures des complexes peptide-CMH classe I est développée et validée. Cette méthode est basée sur un échantillonnage de l'espace conformationnel du peptide dans le contexte du récepteur CMH classe I par dynamique moléculaire. Les conformations sont évaluées par leurs énergies libres conformationnelles. La méthode est validée par sa capacité à reproduire 41 structures des complexes peptide-CMH classe I obtenues par cristallographie aux rayons X. Le succès prédictif général est de 83%. Pour le sous-groupe HLA-A*0201 de complexes de grande importance pour l'immunothérapie, ce succès est de 100%. Deuxièmement, à partir de ces structures prédites in silico, une méthode théorique de prédiction de la reconnaissance croisée est développée et validée. Celle-ci consiste à générer des relations structure-activité quantitatives en utilisant des descripteurs moléculaires tridimensionnels et un réseau de neurones couplé à un algorithme génétique. Les relations générées montrent une capacité de prédiction remarquable avec des valeurs de coefficients de corrélation de validation croisée élevées (0.78-0.79). Les méthodes théoriques développées dans le cadre de cette thèse ouvrent la voie du design de vaccins peptidiques améliorés.
Resumo:
The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux
Resumo:
RESUME L'objectif de cette étude est d'évaluer comment de jeunes médecins en formation perçoivent le risque cardiovasculaire de leurs patients hypertendus en se basant sur les recommandations médicales (« guidelines ») et sur leur jugement clinique. Il s'agit d'une étude transversale observationnelle effectuée à la Policlinique Médicale Universitaire de Lausanne (PMU). 200 patients hypertendus ont été inclus dans l'étude ainsi qu'un groupe contrôle de 50 patients non hypertendus présentant au moins un facteur de risque cardiovasculaire. Nous avons comparé le risque cardiovasculaire à 10 ans calculé par un programme informatique basé sur l'équation de Framingham. L'équation a été adaptée pour les médecins par l'OMS-ISH au risque perçu, estimé cliniquement par les médecins. Les résultats de notre étude ont montrés que les médecins sous-estiment le risque cardiovasculaire à 10 ans de leurs patients, comparé au risque calculé selon l'équation de Framingham. La concordance entre les deux méthodes était de 39% pour les patients hypertendus et de 30% pour le groupe contrôle de patients non hypertendus. La sous-estimation du risque. cardiovasculaire pour les patients hypertendus était corrélée au fait qu'ils avaient une tension artérielle systolique stabilisée inférieure a 140 mmHg (OR=2.1 [1.1 ;4.1]). En conclusion, les résultats de cette étude montrent que les jeunes médecins en formation ont souvent une perception incorrecte du risque cardiovasculaire de leurs patients, avec une tendance à sous-estimer ce risque. Toutefois le risque calculé pourrait aussi être légèrement surestimé lorsqu'on applique l'équation de Framingham à la population suisse. Pour mettre en pratique une évaluation systématique des facteurs de risque en médecine de premier recours, un accent plus grand devrait être mis sur l'enseignement de l'évaluation du risque cardiovasculaire ainsi que sur la mise en oeuvre de programme pour l'amélioration de la qualité.
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés par des schémas décrivant les relations entre les évènements et les entités d'intérêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'évènements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre important d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer à posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de décisions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessiter de consolider les méthodes pratiquées.