584 resultados para méthodes qualitatives
Resumo:
Objectifs: Etudier l'utilité de DWI dans l'échinococcose alveolaire (EA) hépatique. Matériels et méthodes: Dix-sept patients (10 hommes, âge moyen 64.3) avec 55 lésions hépatiques ont été examinés par IRM. La sémiologie des lésions a été étudiée après classification selon Kodama. Les coefficients apparent de diffusion (ADCmax, ADCmin, ADCtot) ont été mesurés. Résultats: Trois lésions de Kodama de type 1, 13 de type 2, 15 de type 3, 3 de type 4, et 21 de type 5. L'ADCtot des lésions mesurait 1.23±0.18 x 10-3 mm2/s. L'ADCtot de Kodama type 1, 2, 3, 4 et 5 mesuraient 1.97±0.27, 1.66±0.13, 1.73±0.12, 1.15±0.27 et 1.76±0.10 x 10-3 mm2/s, respectivement. Il n'y avait pas de différence significative de l'ADCtot entre les types (p=0.25) hormis le type 4 qui représente une lésion solide (p=0.035). Conclusion: Les valeurs d'ADC des lésions d'EA ne se révèlent pas utiles pour différencier les différents types selon Kodama, hormis pour le type 4 ce qui suggère la présence d'une composante solide. Celles-ci sont relativement basses comparées à d'autres lésions kystiques hépatiques, ce qui peut aider à suggérer le diagnostic.
Resumo:
RÉSUMÉ Le but d'un traitement antimicrobien est d'éradiquer une infection bactérienne. Cependant, il est souvent difficile d'en évaluer rapidement l'efficacité en utilisant les techniques standard. L'estimation de la viabilité bactérienne par marqueurs moléculaires permettrait d'accélérer le processus. Ce travail étudie donc la possibilité d'utiliser le RNA ribosomal (rRNA) à cet effet. Des cultures de Streptococcus gordonii sensibles (parent Wt) et tolérants (mutant Tol 1) à l'action bactéricide de la pénicilline ont été exposées à différents antibiotiques. La survie bactérienne au cours du temps a été déterminée en comparant deux méthodes. La méthode de référence par compte viable a été comparée à une méthode moléculaire consistant à amplifier par PCR quantitative en temps réel une partie du génome bactérien. La cible choisie devait refléter la viabilité cellulaire et par conséquent être synthétisée de manière constitutive lors de la vie de la bactérie et être détruite rapidement lors de la mort cellulaire. Le choix s'est porté sur un fragment du gène 16S-rRNA. Ce travail a permis de valider ce choix en corrélant ce marqueur moléculaire à la viabilité bactérienne au cours d'un traitement antibiotique bactéricide. De manière attendue, les S. gordonii sensibles à la pénicilline ont perdu ≥ 4 log10 CFU/ml après 48 heures de traitement par pénicilline alors que le mutant tolérant Tol1 en a perdu ≥ 1 log10 CFU/ml. De manière intéressant, la quantité de marqueur a augmenté proportionnellement au compte viable durant la phase de croissance bactérienne. Après administration du traitement antibiotique, l'évolution du marqueur dépendait de la capacité de la bactérie à survivre à l'action de l'antibiotique. Stable lors du traitement des souches tolérantes, la quantité de marqueur détectée diminuait de manière proportionnelle au compte viable lors du traitement des souches sensibles. Cette corrélation s'est confirmée lors de l'utilisation d'autres antibiotiques bactéricides. En conclusion, l'amplification par PCR du RNA ribosomal 16S permet d'évaluer rapidement la viabilité bactérienne au cours d'un traitement antibiotique en évitant le recours à la mise en culture dont les résultats ne sont obtenus qu'après plus de 24 heures. Cette méthode offre donc au clinicien une évaluation rapide de l'efficacité du traitement, particulièrement dans les situations, comme le choc septique, où l'initiation sans délai d'un traitement efficace est une des conditions essentielles du succès thérapeutique. ABSTRACT Assessing bacterial viability by molecular markers might help accelerate the measurement of antibiotic-induced killing. This study investigated whether ribosomal RNA (rRNA) could be suitable for this purpose. Cultures of penicillin-susceptible and penicillin-tolerant (Tol1 mutant) Streptococcus gordonii were exposed to mechanistically different penicillin and levofloxacin. Bacterial survival was assessed by viable counts, and compared to quantitative real-time PCR amplification of either the 16S-rRNA genes (rDNA) or the 16S rRNA, following reverse transcription. Penicillin-susceptible S. gordonii lost ≥ 4 log10 CFU/ml of viability over 48 h of penicillin treatment. In comparison, the Toll mutant lost ≤ 1 log10 CFU/ml. Amplification of a 427-base fragment of 16S rDNA yielded amplicons that increased proportionally to viable counts during bacterial growth, but did not decrease during drug-induced killing. In contrast, the same 427-base fragment amplified from 16S rDNA paralleled both bacterial growth and drug-induced killing. It also differentiated between penicillin-induced killing of the parent and the Toll mutant (≥4 log10 CFU/ml and ≤1 lo10 CFU/ml, respectively), and detected killing by mechanistically unrelated levofloxacin. Since large fragments of polynucleotides might be degraded faster than smaller fragments the experiments were repeated by amplifying a 119-base region internal to the origina1 427-base fragment. The amount of 119-base amplicons increased proportionally to viability during growth, but remained stable during drug treatment. Thus, 16S rRNA was a marker of antibiotic-induced killing, but the size of the amplified fragment was critical to differentiate between live and dead bacteria.
Resumo:
RAPPORT DE SYNTHÈSE Introduction En médecine de premier recours, les plaintes physiques sont fréquemment associées à des troubles dépressifs, anxieux et somatoformes et peuvent les masquer. Il est fréquemment reporté que ces troubles mentaux ont tendance à être insuffisamment diagnostiqués. Par ailleurs, peu d'études ont été conduites en médecine de premier recours concernant la possible association entre facteurs de stress psychosociaux et troubles dépressifs, anxieux et somatoformes. Objectifs Les objectifs étaient de déterminer la prévalence des troubles dépressifs, anxieux et somatoformes chez des patients consultant avec une plainte physique en médecine de premier recours, ainsi que d'explorer la possible association entre ces troubles mentaux et des facteurs de stress psychosociaux. Méthodes Nous avons conduit une étude transversale, multicentrique parmi vingt et un cabinets médicaux en Suisse Romande et la Policlinique Médicale Universitaire de Lausanne. Les sujets étaient sélectionnés aléatoirement parmi des patients qui avaient présenté spontanément au moins une plainte physique et qui avaient consulté lors d'une demi- journée de consultation considérée pour l'étude. Les patients inclus ont rempli l'auto- questionnaire Patient Health Questionnaire (PHQ) entre novembre 2004 et juillet 2005. Nous avons utilisé la version française et validée du PHQ qui permet le diagnostic des principaux troubles mentaux selon les critères du DSM-IV et l'analyse de l'exposition aux facteurs de stress psychosociaux. Résultats Neuf cent dix-sept patients se présentant avec au moins une plainte physique ont été inclus. Le taux de troubles dépressifs, anxieux et somatoformes a été de 20,0% (intervalle de confiance [IC] à 95% = 17,4%-22,7%), 15,5% (IC 95% = 13,2%- 18,0%) et 15,1% (IC 95% = 12,8%~17,5%), respectivement. Les facteurs de stress psychosociaux ont été significativement associés aux troubles mentaux. Les patients avec une accumulation de facteurs de stress psychosociaux ont été le plus souvent déprimés, anxieux ou ont manifesté des troubles somatoformes, avec une augmentation par un facteur 2,2 (IC 95% = 2,0-2,5) pour chaque facteur additionnel. Conclusions Bien que la relation entre facteurs de stress psychosociaux et trouble dépressif soit bien établie, cette étude montre qu'il existe un lien entre ces facteurs de stress et les troubles dépressifs, anxieux et somatoformes. L'investigation de ces troubles mentaux chez des patients consultant avec un symptôme physique en médecine de premier recours est pertinente. D'autres explorations sont nécessaires pour investiguer le bénéfice potentiel d'une prise en charge intégrée des facteurs de stress psychosociaux sur la diminution des plaintes physiques et des troubles mentaux chez les patients que suivent les médecins de premier recours.
Resumo:
Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.
Resumo:
This study was initiated to investigate partial melting within the high-grade metamorphic rocks beneath the Little Cottonwood contact aureole (Utah, USA), in order to understand the melt generation, melt migration, and geometry of initial melt distribution on grain scale during crustal anatexis. The emplacement of the Little Cottonwood stock produced a contact aureole in the pelitic host rocks of the Big Cottonwood formation (BC). Metamorphic isogrades in pelitic rocks range form biotite to 2nd sillimanite grade as a function of distance from the contact. Migmatites are restricted to the highest grade and resulted form partial melting of the BC formation rocks. First melt was produced by a combined muscovite/biotite dehydration reaction in the sillimanite + k-feldspar stability field. Melt extraction from the pelites resulted in restites (magnetite + cordierite + alumosilicate ± biotite) surrounded by feldspar enriched quartzite zones. This texture is the result of gradual infiltration of partial melts into the quartzite. Larger, discrete melt accumulation occurred in extensional or transpressional domains such as boudin necks, veins, and ductile shear zones. Melt composition are Si02- rich, crystallized as pegmatites, and apparently were very mobile. They were able to infiltrate the quartzite pervaisivly. These melts are similar in composition to first melts produced in the hydrothermal partial melt experiments at 2kbar between 700 - 800°C on fine grained high metamorphic rocks (andalusite-cordierited-biotite-zone) of the BC formation. The experimental melts are water rich and in disequilibrium with the melting rock. Initial melt composition is heterogeneous for short run duration, reflective a lack of chemical equilibrium between individual melt pools. Rock core scale heterogeneity decreased with time indicating partial homogenization of melt compositions. A simultaneous shift of melt composition to higher silica content with time was observed. The silica content of the melt increased due to local melt/mineral reactions. Melt textures indicate that reactive melt transport is most efficient along grain boundaries rimmed by dissimilar grains. Melt heterogeneity resulted in chemical potential gradients which are major driving forces for initial melt migration and govern melt distribution during initial melting. An additional subject of the thesis is the crystal size distributions of opaque minerals in a fine-grained, high-grade meta-pelite of the Big Cottonwood which were obtained from 3D X-ray tomography (uCT) and 2D thin section analysis. µCT delivers accurate size distributions within a restricted range (~ a factor of 20 in size in a single 3D image), while the absolute number of crystals is difficult to obtain from these sparsely distributed, small crystals on the basis of 2D images. Crystal size distributions obtained from both methods are otherwise similar. - Ce travail de recherche a été entrepris dans le but d'étudier les processus de fusion partielle dans les roches fortement métamorphiques de l'auréole de contact de Little Cottonwood (Utah, USA) et ceci afin de comprendre la génération de liquide de fusion, la migration de ces liquides et la géométrie de la distribution initiale des liquides de fusion à l'échelle du grain durant l'anatexie de la croûte. L'emplacement du petit massif intrusif de Little Cottonwood a produit une auréole de contact dans les roches pélitiques encaissantes appartenant à la Foimation du Big Cottonwood (BC). Les isogrades métamorphiques dans les roches pélitiques varient de l'isograde de la biotite à la deuxième isograde de la sillimanite en fonction de la distance par rapport au massif intrusif. Les migmatites sont restreintes aux zones montrant le plus haut degré métamorphique et résultent de la fusion partielle des roches de la Formation de BC. Le premier liquide de fusion a été produit par la réaction de déshydratation combinée de la muscovite et de la biotite dans le champ de stabilité du feldspath potassique Pt de la sillimanite. L'extraction du liquide de fusion des pélites forme des restites (magnétites + cordiérite + aluminosilicate ± biotite) entourées par des zones de quartzites enrichies en feldspath. Cette texture est le résultat de l'infiltration graduelle du liquide de fusion partielle dans les quartzites. Des accumulations distinctes et plus larges de liquide de fusion ont lieu dans des domaines d'extension ou de transpression tels que les boudins, les veines, et les zones de cisaillement ductile. La composition des liquides de fusion est similaire à celle des liquides pegmatoïdes, et ces liquides sont apparemment très mobiles et capables d'infiltrer les quartzites. Ces liquides de fusion ont la même composition que les premiers liquides produits dans les expériences hydrotheunales de fusion partielle à 2kbar et entre 700-800° C sur les roches finement grenues et hautement métamorphiques (andalousite-cordiérite-biotite zone) de la Formation de BC. Les liquides de fusion obtenus expérimentalement sont riches en eau et sont en déséquilibre avec la roche en fusion. La composition initiale des liquides de fusion est hétérogène pour les expériences de courte durée et reflète l'absence d'équilibre chimique entre les différentes zones d'accumulation des liquides de fusion. L'hétérogénéité à l'échelle du noyau s'estompe avec le temps et témoigne de l'homogénéisation de la composition des liquides de fusion. Par ailleurs, on observe parallèlement un décalage de la composition des liquides vers des compositions plus riches en silice au cours du temps. Le contenu en silice des liquides de fusion évolue vers un liquide pegmatitique en raison des réactions liquides/minéraux. Les textures des liquides de fusion indiquent que le transport des liquides est plus efficace le long des bordures de grains bordés par des grains différents. Aucun changement apparent du volume total n'est visible. L'hétérogénéité des liquides s'accompagne d'un gradient de potentiel chimique qui sert de moteur principal à la migration des liquides et à la distribution des liquides durant la fusion. Un sujet complémentaire de ce travail de thèse réside dans l'étude de la distribution de la taille des cristaux opaques dans les pélites finement grenues et fortement métamorphiques de la Formation de Big Cottonwood. Les distributions de taille ont été obtenues suite à l'analyse d'images 3D acquise par tomographie ainsi que par analyse de lames minces. La microtomographie par rayon X fournit une distribution de taille précise sur une marge restreinte (- un facteur de taille 20 dans une seule image 3D), alors que le nombre absolu de cristaux est difficile à obtenir sur la base d'image 2D en raison de la petite taille et de la faible abondance de ces cristaux. Les distributions de taille obtenues par les deux méthodes sont sinon similaire. Abstact: Chemical differentiation of the primitive Earth was due to melting and separation of melts. Today, melt generation and emplacement is still the dominant process for the growth of the crust. Most granite formation is due to partial melting of the lower crust, followed by transport of magma through the crust to the shallow crust where it is emplaced. Partial melting and melt segregation are essential steps before such a granitic magma can ascent through the crust. The chemistry and physics of partial melting and segregation is complex. Hence detailed studies, in which field observations yield critical information that can be compared to experimental observations, are crucial to the understanding of these fundamental processes that lead and are leading to the chemical stratification of the Earth. The research presented in this thesis is a combined field and experimental study of partial melting of high-grade meta-pelitic rocks of the Little Cottonwood contact aureole (Utah, USA). Contact metamorphic rocks are ideal for textural studies of melt generation, since the relatively short times of the metamorphic event prevents much of the recrystallization which plagues textural studies of lower crustal rocks. The purpose of the study is to characterize melt generation, identify melting reactions, and to constrain melt formation, segregation and migration mechanisms. In parallel an experimental study was undertaken to investigate melt in the high grade meta pelitic rocks, to confirm melt composition, and to compare textures of the partial molten rock cores in the absence of deformation. Results show that a pegmatoidal melt is produced by partial melting of the pelitic rocks. This melt is highly mobile. It is capable of pervasive infiltration of the adjacent quartzite. Infiltration results in rounded quartz grains bordered by a thin feldspar rim. Using computed micro X-ray tomography these melt networks can be imaged. The infiltrated melt leads to rheological weakening and to a decompaction of the solid quartzite. Such decompaction can explain the recent discovery of abundant xenocrysts in many magmas, since it favors the isolation of mineral grains. Pervasive infiltration is apparently strongly influenced by melt viscosity and melt-crystal wetting behavior, both of which depend on the water content of melt and the temperature. In all experiments the first melt is produced on grain boundaries, dominantly by the local minerals. Grain scale heterogeneity of a melting rock leads thus to chemical concentration gradients in the melt, which are the driving force for initial melt migration. Pervasive melt films along grain boundaries leading to an interconnected network are immediately established. The initial chemical heterogeneities in the melt diminish with time. Résumé large public: La différenciation chimique de la Terre primitive est la conséquence de la fusion des roches et de la séparation des liquides qui en résultent. Aujourd'hui, la production de liquide magmatique est toujours le mécanisme dominant pour la croissance de la croûte terrestre. Ainsi la formation de la plupart des granites est un processus qui implique la production de magma par fusion partielle de la croûte inférieure, la migration de ces magmas à travers la croûte et finalement son emplacement dans les niveaux superficielle de la croûte terrestre. Au cours de cette évolution, les processus de fusion partielle et de ségrégation sont des étapes indispensables à l'ascension des granites à travers la croûte. Les conditions physico-chimiques nécessaires à la fusion partielle et à l'extraction de ces liquides sont complexes. C'est pourquoi des études détaillées des processus de fusion partielle sont cruciales pour la compréhension de ces mécanismes fondamentaux responsables de la stratification chimique de la Terre. Parmi ces études, les observations de terrain apportent notamment des informations déterminantes qui peuvent être comparées aux données expérimentales. Le travail de recherche présenté dans ce mémoire de thèse associe études de terrain et données expérimentales sur la fusion partielle des roches pélitiques de haut degré métamorphiques provenant de l'auréole de contact de Little Cottonwood (Utah, USA). Les roches du métamorphisme de contact sont idéales pour l'étude de la folination de liquide de fusion. En effet, la durée relativement courte de ce type d'événement métamorphique prévient en grande partie la recristallisation qui perturbe les études de texture des roches dans la croûte inférieure. Le but de cette étude est de caractériser la génération des liquides de fusion, d'identifier les réactions responsables de la fusion de ces roches et de contraindre la formation de ces liquides et leur mécanisme de ségrégation et de migration. Parallèlement, des travaux expérimentaux ont été entrepris pour reproduire la fusion partielle de ces roches en laboratoire. Cette étude a été effectuée dans le but de confirmer la composition chimique des liquides, et de comparer les textures obtenues en l'absence de déformation. Les résultats montrent qu'un liquide de fusion pegmatoïde est produit par fusion partielle des roches pélitiques. La grande mobilité de ce liquide permet une infiltration pénétrative dans les quarzites. Ces infiltrations se manifestent par des grains de quartz arrondis entourés par une fine bordure de feldspath. L'utilisation de la tomography à rayons X a permis d'obtenir des images de ce réseau de liquide de fusion. L'infiltration de liquide de fusion entraîne un affaiblissement de la rhéologie de la roche ainsi qu'une décompaction des quartzites massifs. Une telle décompaction peut expliquer la découverte récente d'abondants xénocristaux dans beaucoup de magmas, puisque elle favorise l'isolation des minéraux. L'infiltration pénétrative est apparemment fortement influencée par la viscosité du fluide de fusion et le comportement de la tension superficielle entre les cristaux et le liquide, les deux étant dépendant du contenu en eau dans le liquide de fusion et de la température. Dans toutes les expériences, le premier liquide est produit sur les bordures de grains, principalement par les minéraux locaux. L'hétérogénéité à l'échelle des grains d'une roche en fusion conduit donc à un gradient de concentration chimique dans le liquide, qui sert de moteur à l'initiation de la migration du liquide. Des fines couches de liquide de fusion le long de bordures de grains formant un réseau enchevêtré s'établit immédiatement. Les hétérogénéités chimiques initiales dans le liquide s'estompent avec le temps.
Resumo:
RESUME Introduction : Dans le coeur adulte, l'ischémie et la reperfusion entraînent des perturbations électriques, mécaniques, biochimiques et structurales qui peuvent causer des dommages réversibles ou irréversibles selon la sévérité de l'ischémie. Malgré les récents progrès en cardiologie et en chirurgie foetales, la connaissance des mécanismes impliqués dans la réponse du myocarde embryonnaire à un stress hypoxique transitoire demeure lacunaire. Le but de ce travail a donc été de caractériser les effets chrono-, dromo- et inotropes de l'anoxie et de la réoxygénation sur un modèle de coeur embryonnaire isolé. D'autre part, les effets du monoxyde d'azote (NO) et de la modulation des canaux KATP mitochondriaux (mito KATP) sur la récupération fonctionnelle postanoxique ont été étudiés. La production myocardique de radicaux d'oxygène (ROS) et l'activité de MAP Kinases (ERK et JNK) impliquées dans la signalisation cellulaire ont également été déterminées. Méthodes : Des coeurs d'embryons de poulet âgés de 4 jours battant spontanément ont été placés dans une chambre de culture puis soumis à une anoxie de 30 min suivie d'une réoxygénation de 60 min. L'activité électrique (ECG), les contractions de l'oreillette, du ventricule et du conotroncus (détectées par photométrie), la production de ROS (mesure de la fluorescence du DCFH) et l'activité kinase de ERK et JNK dans le ventricule ont été déterminées au cours de l'anoxie et de la réoxygénation. Les coeurs ont été traités avec un bloqueur des NO synthases (L-NAME), un donneur de NO (DETA-NONOate), un activateur (diazoxide) ou un inhibiteur (5-HD) des canaux mitoKATP un inhibiteur non-spécifique des PKC (chélérythrine) ou un piégeur de ROS (MPG). Résultats : L'anoxie et la réoxygénation entraînaient des arythmies (essentiellement d'origine auriculaire) semblables à celles observées chez l'adulte, des troubles de la conduction (blocs auriculo-ventriculaires de 1er, 2ème et 3ème degré) et un ralentissement marqué du couplage excitation-contraction (E-C) ventriculaire. En plus de ces arythmies, la réoxygénation déclenchait le phénomène de Wenckelbach, de rares échappements ventriculaires et une sidération myocardique. Aucune fibrillation, conduction rétrograde ou activité ectopique n'ont été observées. Le NO exogène améliorait la récupération postanoxique du couplage E-C ventriculaire alors que L'inhibition des NOS la ralentissait. L'activation des canaux mito KATP augmentait la production mitochondriale de ROS à la réoxygénation et accélérait la récupération de la conduction (intervalle PR) et du couplage E-C ventriculaire. La protection de ce couplage était abolie par le MPG, la chélérythrine ou le L-NAME. Les fonctions électrique et contractile de tous les coeurs récupéraient après 30-40 min de réoxygénation. L'activité de ERK et de JNK n'était pas modifiée par L'anoxie, mais doublait et quadruplait, respectivement, après 30 min de réoxygénation. Seule l'activité de JNK était diminuée (-60%) par l'activation des canaux mitoKATP. Cet effet inhibiteur était partiellement abolit par le 5-HD. Conclusion: Dans le coeur immature, le couplage E-C ventriculaire semble être un paramètre particulièrement sensible aux conditions d'oxygénation. Sa récupération postanoxique est améliorée par l'ouverture des canaux mitoKATP via une signalisation impliquant les ROS Ies PKC et le NO. Une réduction de l'activité de JNK semble également participer à cette protection. Nos résultats suggèrent que les mitochondries jouent un rôle central dans la modulation des voies de signalisation cellulaire, en particulier lorsque les conditions métaboliques deviennent défavorables. Le coeur embryonnaire isolé représente donc un modèle expérimental utile pour mieux comprendre les mécanismes associés à une hypoxie in utero et pour améliorer les stratégies thérapeutiques en cardiologie et chirurgie foetales. ABSTRACT Physiopathology of the anoxic-reoxygenated embryonic heart: Protective role of NO and KATP channel Aim: In the adult heart, the electrical, mechanical, biochemical and structural disturbances induced by ischemia and reperfusion lead to reversible or irreversible damages depending on the severity and duration of ischemia. In spite of recent advances in fetal cardiology and surgery, little is known regarding the cellular mechanisms involved in hypoxia-induced dysfunction in the developing heart. The aim of this study was to precisely characterize the chrono-, dromo- and inotropic disturbances associated with anoxia-reoxygenation in an embryonic heart model. Furthermore, the roles that nitric oxide (NO), reactive oxygen species (ROS), mitochondrial KATP, (mito KATP) channel and MAP Kinases could play in the stressed developing heart have been investigated. Methods: Embryonic chick hearts (4-day-old) were isolated and submitted in vitro to 30 min anoxia followed by 60 min reoxygenation. Electrical (ECG) and contractile activities of atria, ventricle and conotruncus (photometric detection), ROS production (DCFH fluorescence) and ERK and JNK activity were determined in the ventricle throughout anoxia-reoxygenation. Hearts were treated with NO synthase inhibitor (L-NAME), NO donor (DETA-NONOate), mitoKATP channel opener (diazoxide) or blocket (5-HD), PKC inhibitor (chelerythrine) and ROS scavenger (MPG). Results: Anoxia and reoxygenation provoked arrhythxnias (mainly originating from atrial region), troubles of conduction (st, 2nd, and 3rd degree atrio-ventricular blocks) and disturbances of excitation-contraction (E-C) coupling. In addition to these types of arrhythmias, reoxygenation triggered Wenckebach phenomenon and rare ventricular escape beats. No fibrillations, no ventricular ectopic beats and no electromechanical dissociation were observed. Myocardial stunning was observed during the first 30 min of reoxygenation. All hearts fully recovered their electrical and mechanical functions after 30-40 min of reoxygenation. Exogenous NO improved while NOS inhibition delayed E-C coupling recovery. Mito KATP, channel opening increased reoxygenation-induced ROS production and improved E-C coupling and conduction (PR) recovery. MPG, chelerythrine or L-NAME reversed this effect. Reoxygenation increased ERK and JNK activities land 4-fold, respectively, while anoxia had no effect. MitoKATP channel opening abolished the reoxygenation-induced activation of JNK but had no effect on ERK activity. This inhibitory effect was partly reversed by mitoKATP channel blocker but not by MPG. Conclusion: In the developing heart, ventricular E-C coupling was found to be specially sensitive to hypoxia-reoxygenation and its postanoxic recovery was improved by mitoKATP channel activation via a ROS-, PKC- and NO-dependent pathway. JNK inhibition appears to be involved in this protection. Thus, mitochondria can play a pivotal role in the cellular signalling pathways, notably under critical metabolic conditions. The model of isolated embryonic heart appears to be useful to better understand the mechanisms underlying the myocardial dysfunction induced by an in utero hypoxia and to improve therapeutic strategies in fetal cardiology and surgery.
Resumo:
RESUME Les améliorations méthodologiques des dernières décennies ont permis une meilleure compréhension de la motilité gastro-intestinale. Il manque toutefois une méthode qui permette de suivre la progression du chyme le long du tube gastro-intestinal. Pour permettre l'étude de la motilité de tout le tractus digestif humain, une nouvelle technique, peu invasive, a été élaborée au Département de Physiologie, en collaboration avec l'EPFL. Appelée "Magnet Tracking", la technique est basée sur la détection du champ magnétique généré par des matériaux ferromagnétiques avalés. A cet usage, une pilule magnétique, une matrice de capteurs et un logiciel ont été développés. L'objet de ce travail est de démontrer la faisabilité d'un examen de la motilité gastro-intestinale chez l'Homme par cette méthode. L'aimant est un cylindre (ø 6x7 mm, 0.2 cm3) protégé par une gaine de silicone. Le système de mesure est constitué d'une matrice de 4x4 capteurs et d'un ordinateur portable. Les capteurs fonctionnent sur l'effet Hall. Grâce à l'interface informatique, l'évolution de la position de l'aimant est suivie en temps réel à travers tout le tractus digestif. Sa position est exprimée en fonction du temps ou reproduite en 3-D sous forme d'une trajectoire. Différents programmes ont été crées pour analyser la dynamique des mouvements de l'aimant et caractériser la motilité digestive. Dix jeunes volontaires en bonne santé ont participé à l'étude. L'aimant a été avalé après une nuit de jeûne et son séjour intra digestif suivi pendant 2 jours consécutifs. Le temps moyen de mesure était de 34 heures. Chaque sujet a été examiné une fois sauf un qui a répété sept fois l'expérience. Les sujets restaient en décubitus dorsal, tranquilles et pouvaient interrompre la mesure s'ils le désiraient. Ils sont restés à jeûne le premier jour. L'évacuation de l'aimant a été contrôlée chez tous les sujets. Tous les sujets ont bien supporté l'examen. Le marqueur a pu être détecté de l'oesophage au rectum. La trajectoire ainsi constituée représente une conformation de l'anatomie digestive : une bonne superposition de celle-ci à l'anatomie est obtenue à partir des images de radiologie conventionnelle (CT-scan, lavement à la gastrografine). Les mouvements de l'aimant ont été caractérisés selon leur périodicité, leur amplitude ou leur vitesse pour chaque segment du tractus digestif. Ces informations physiologiques sont bien corrélées à celles obtenues par des méthodes établies d'étude de la motilité gastro-intestinale. Ce travail démontre la faisabilité d'un examen de la motilité gastro-intestinal chez l'Homme par la méthode de Magnet Tracking. La technique fournit les données anatomiques et permet d'analyser en temps réel la dynamique des mouvements du tube digestif. Cette méthode peu invasive ouvre d'intéressantes perspectives pour l'étude de motilité dans des conditions physiologiques et pathologiques. Des expériences visant à valider cette approche en tant que méthode clinique sont en voie de réalisation dans plusieurs centres en Suisse et à l'étranger. SUMMARY Methodological improvements realised over the last decades have permitted a better understanding of gastrointestinal motility. Nevertheless, a method allowing a continuous following of lumina' contents is still lacking. In order to study the human digestive tract motility, a new minimally invasive technique was developed at the Department of Physiology in collaboration with Swiss Federal Institute of Technology. The method is based on the detection of magnetic field generated by swallowed ferromagnetic materials. The aim of our work was to demonstrate the feasibility of this new approach to study the human gastrointestinal motility. The magnet used was a cylinder (ø6x7mm, 0.2 cm3) coated with silicon. The magnet tracking system consisted of a 4x4 matrix of sensors based on the Hall effect Signals from the sensors were digitised and sent to a laptop computer for processing and storage. Specific software was conceived to analyse in real time the progression of the magnet through the gastrointestinal tube. Ten young and healthy volunteers were enrolled in the study. After a fasting period of 12 hours, they swallowed the magnet. The pill was then tracked for two consecutive days for 34 hours on average. Each subject was studied once except one who was studied seven times. Every subject laid on his back for the entire experiment but could interrupt it at anytime. Evacuation of the magnet was controlled in all subjects. The examination was well tolerated. The pill could be followed from the esophagus to the rectum. The trajectory of the magnet represented a "mould" of the anatomy of the digestive tube: a good superimposition with radiological anatomy (gastrografin contrast and CT) was obtained. Movements of the magnet were characterized by periodicity, velocity, and amplitude of displacements for every segment of the digestive tract. The physiological information corresponded well to data from current methods of studying gastrointestinal motility. This work demonstrates the feasibility of the new approach in studies of human gastrointestinal motility. The technique allows to correlate in real time the dynamics of digestive movements with the anatomical data. This minimally invasive method is ready for studies of human gastrointestinal motility under physiological as well as pathological conditions. Studies aiming at validation of this new approach as a clinically relevant tool are being realised in several centres in Switzerland and abroad. Abstract: A new minimally invasive technique allowing for anatomical mapping and motility studies along the entire human digestive system is presented. The technique is based on continuous tracking of a small magnet progressing through the digestive tract. The coordinates of the magnet are calculated from signals recorded by 16 magnetic field sensors located over the abdomen. The magnet position, orientation and trajectory are displayed in real time. Ten young healthy volunteers were followed during 34 h. The technique was well tolerated and no complication was encountered, The information obtained was 3-D con-figuration of the digestive tract and dynamics of the magnet displacement (velocity, transit time, length estimation, rhythms). In the same individual, repea-ted examination gave very reproducible results. The anatomical and physiological information obtained corresponded well to data from current methods and imaging. This simple, minimally invasive technique permits examination of the entire digestive tract and is suitable for both research and clinical studies. In combination with other methods, it may represent a useful tool for studies of Cl motility with respect to normal and pathological conditions.
Resumo:
Résumé en français Contexte Les interventions intensives d'aide à l'arrêt de la cigarette en milieu hospitalier n'ont pas été adoptées à large échelle, peut-être en raison de barrières organisationnelles. Nous évaluons dans cette étude l'efficacité d'une approche moins contraignante. Méthodes Nous avons conçu et réalisé une étude de cohorte avec un groupe de contrôle historique dans le département de médecine d'un hôpital universitaire de 850 lits. Cent dix-sept fumeurs éligibles consécutifs ont bénéficié d'une intervention d'aide à l'arrêt de la cigarette et 113 fumeurs hospitalisés avant l'implémentation de cette intervention ont constitué notre groupe de contrôle. L'intervention d'aide à l'arrêt de la cigarette, d'une durée de 30 minutes, était réalisée par un médecin assistant formé en désaccoutumance au tabac, sans aucun contact ultérieur de suivi. Tous les patients ont ensuite reçu un questionnaire pour évaluer quelles étaient leurs habitudes en matière de tabagisme 6 mois après leur sortie d'hôpital. Nous avons considéré les patients perdus de vue comme fumeurs et l'abstinence tabagique ponctuelle (au moins 7 jours consécutifs) des ex-fumeurs a été validée par leur médecin traitant. Résultats Les taux d'arrêt de la cigarette validés étaient de 23.9% dans le groupe intervention et de 9.7% dans le groupe contrôle (odds ratio 2.9, intervalle de confiance à 95% [IC95] 1.4 à 6.2). Après ajustement pour les facteurs confondants potentiels, l'intervention était toujours efficace, avec un odds ratio ajusté de 2.7 (1095 = 1.0 à 5.0). Conclusion Une intervention d'aide à l'arrêt de la cigarette de faible intensité, sans contact de suivi, est associée avec un plus haut taux d'arrêt de la cigarette à 6 mois en comparaison avec un groupe de contrôle historique.
Resumo:
RESUME INTRODUCTION Comprendre les déterminants de l'arrêt du tabagisme est un enjeu crucial, tant sur le plan clinique qu'en termes de santé publique. Dans l'étude transversale présentée ici, nous décrivons ce processus au travers de l'expérience d'ex-fumeurs. METHODE Sur une période de 4 mois, nous avons proposé à chaque patient consultant la Policlinique Médicale Universitaire de Lausanne de participer à une étude visant à examiner leur expérience de l'arrêt du tabagisme. Les critères d'inclusion étaient les suivants: (1) âge ≥ 18 ans (2) connaissance minimale de la langue française (capacité de comprendre et répondre aux questions) (3) être un ex-fumeur (défini comme une personne actuellement abstinente mais ayant fumé au moins 100 cigarettes [≥ 5 paquets] pendant > 6 mois dans le passé). Une infirmière formée a mené des entretiens semi-structurés en face-à-face avec les ex-fumeurs recrutés en utilisant un questionnaire explorant les 67 questions parmi les thèmes suivants : caractéristiques démographiques et socioéconomiques ; habitudes antérieures de consommation ; stades de motivation ; influence de l'environnement social ; état de santé et préoccupations au sujet de la santé ; perception des risques et des bénéfices du tabagisme ; perception de la dépendance nicotinique ; offre d'un counseling médical spécifique ; connaissances sur les modalités thérapeutiques disponibles et méthodes utilisées pour arrêter de fumer. Les résultats sont exprimés en nombres absolus, en pourcentages, en moyennes et en dispersion. RÉSULTATS 88 ex-fumeurs ont été inclus dans l'étude. Leurs caractéristiques démographiques et socioéconomiques sont les suivantes : La grande majorité d'entre eux sont des hommes (81%), l'âge moyen de 51 ans (variant de 19 à 81 ans), la moitié sont mariés, 72% de nationalité suisse et une grosse minorité (40%) ont une formation supérieure (universitaire ou équivalente). Leur histoire de consommation montre que l'âge moyen d'initiation du tabagisme est de 18 ans (entre 11 et 30 ans), et 23% ont commencé avant 16 ans. La consommation moyenne était de 26 cigarettes/jour. Presque tous les sujets (92%) étaient en contact fréquent avec des fumeurs à la maison, à l'école, au travail ou avec des amis au moment où ils ont commencé à fumer. La moitié des patients a essayé à une ou deux reprises d'arrêter de fumer avant de parvenir à une réelle abstinence. La durée depuis leur arrêt de consommation de cigarettes était en moyenne 5 ans et seuls 16% des sujets ont fumé occasionnellement depuis l'arrêt de leur consommation régulière. La majorité des ex-fumeurs (93%) dit avoir arrêté de manière abrupte et sans aucune aide thérapeutique (83%). 70 % des patients décrivent l'arrêt comme plutôt ou très difficile. Les problèmes décrits après l'interruption du tabagisme sont une prise pondérale (27%), la dépendance (23%), l'irritabilité (15%), les contacts avec des fumeurs (15%) et le manque de cigarette après les repas (11%). Les motivations principales à arrêter de fumer étaient des préoccupations générales au sujet de la santé (39%), des symptômes (23%) ou des signes cliniques spécifiques (22%), comme des problèmes cardiovasculaires ou respiratoires, ainsi que la conviction que le moment était venu d'arrêter (13%). D'autres motivations (comme les enfants, la grossesse, le coût...) étaient rarement mentionnées alors que 45% d'entre eux ont tout de même ressenti une pression de l'entourage, principalement de la part dé personnes vivant sous le même toit, de leurs famille ou amis. L'effet positif majeur de l'abstinence est, à leurs yeux, une amélioration globale de la santé (48%) ou de leurs problèmes cardiovasculaires ou respiratoires (32%). Trois quarts (74 %) des sujets savent que les cigarettes dites «légères »sont aussi nuisibles que les cigarettes normales, et 90 % sont conscients du fait que la nicotine peut induire une dépendance ; la moitié d'entre eux ne réalisent toutefois pas que le filtre ne protège pas contre les dangers de l'inhalation de fumée. Prés de trois quarts (73%) des ex-fumeurs disent avoir été interrogés sur leur consommation de tabac à l'occasion d'une consultation médicale motivée par un problème de santé et 30% clairement encouragés à arrêter par leur médecin. A ce sujet, 78 % sont d'avis qu'un médecin devrait par principe conseiller un arrêt du tabac. CONCLUSION Les 88 ex-fumeurs de cet échantillon ont, pour la plupart, arrêté la cigarette par leurs propres moyens, après un ou plusieurs échecs. Leurs motivations principales étaient le souci de leur propre santé, globalement ou relativement à des symptômes ou des signes cliniques spécifiques, ce qui reflète le fait que les patients sont relativement bien informés des dangers liés à la consommation de tabac. Enfin, le fumeur est sensible à l'influence de son environnement social, et, dans cette perspective, l'abstinence devrait être encouragée par les autorités sanitaires, les professionnels de la santé et les autres membres de la communauté.
Resumo:
SUMMARY Regional drug delivery is an approach designed to improve the selectivity of anticancer chemotherapy. The advantage of regional treatments lies in increasing the drug concentration in the affected organ, while the rest of the organism is spared, thus improving efficacy and limiting treatment toxicity. The goal of this thesis was to assess the distribution throughout the body and the disposition (pharmacokinetics) of two anticancer agents, doxorubicin and gemcitabine, administered by two different regional administration modalities: isolated lung perfusion (ILP) for pulmonary metastases from soft tissue sarcomas and abdominal stop-flow hypoxic perfusion for advanced pancreatic cancers, respectively. For this purpose, two high-performance liquid chromatography methods were developed and validated. The first enabled the determination of doxorubicin in four different biological matrices: serum, reconstituted effluent, tissues with low levels of doxorubicin and tissues with high levels of doxorubicin. The second allows the analysis of gemcitabine and its principal metabolite dFdU in plasma. The administration of doxorubicin by ILP was studied in three preclinical studies (one on pigs and two on rats). It was first shown that, regardless of the administration mode, doxorubicin was not homogeneously distributed throughout the lung and that some regions remained out of reach. Secondly, it was demonstrated that doxorubicin did not adequately reach the tumours despite very high levels found in the lung. Finally, an attempt to enhance the doxorubicin tumoural uptake by pharmacologic modulation using two P-glycoprotein inhibitors, cyclosporin and valspodar, was unsuccessful. The last part of this work involves the administration of gemcitabine by abdominal stop-flow as a part of a phase I clinical trial in patients with advanced pancreatic disease or resistant malignant ascites. The study has demonstrated that the regional exposure to gemcitabine was increased while the exposure of the entire organism was similar to standard intravenous administrations. From a toxicological perspective, the procedure was rather well tolerated. However, even if no clinical response is expected from a phase I study, no hints of clinical responses were unfortunately observed. In conclusion, even if loco-regional therapies may afford the pharmacological advantage of increasing anticancer drug levels at the tumour site, further studies of these investigational treatment modalities are warranted to ascertain whether they can provide a significant improvement of the cancer therapy for patients, in terms of treatment tolerability, improved responses and survival rates. RÉSUMÉ L'administration locorégionale d'agents anticancéreux est une approche destinée à augmenter la sélectivité du traitement. L'avantage des traitements régionaux repose sur le fait que la concentration du médicament cytostatique est augmentée dans l'organe où est localisée la tumeur, alors que le reste de l'organisme est épargné, améliorant ainsi en théorie l'efficacité du traitement et en limitant sa toxicité. Le but de ce travail de thèse avait pour objectif de préciser, la pharmacocinétique au sein de l'organisme de deux agents anticancéreux, la doxorubicine et la gemcitabine, administrés par deux types de perfusions loco-régionales: la perfusion isolée du poumon (ILP) pour les métastases pulmonaires de sarcomes des tissus mous, et la perfusion hypoxique (stop-flow) abdominale pour les cancers avancés du pancréas. Dans cette optique, deux méthodes de chromatographie liquide à haute performance ont été développées et validées. La première permet le dosage de la doxorubicine dans quatre milieux biologiques: le sérum, l'effluent reconstitué, ainsi que des tissus contenant des concentrations faibles et élevées en doxorubicine. La seconde méthode permet le dosage dans le plasma de la gemcitabine et de son principal métabolite, le dFdU. L'administration de doxorubicine par ILP a été étudiée dans trois études précliniques (une chez le porc et deux chez le rat). Il a été montré, dans un premier temps, que la doxorubicine n'était pas distribuée de façon homogène au sein du poumon, quel que soit son mode d'administration. Dans un deuxième temps, il a été démontré que le médicament n'atteignait pas les tumeurs de façon adéquate, malgré des concentrations très élevées au sein du tissu pulmonaire. Finalement, une tentative d'augmenter la pénétration tumorale de la doxorubicine par une modulation pharmacologique de la P-glycoprotéine en utilisant la cyclosporine et le valspodar n'a pas abouti. La dernière partie de ce travail concernait l'administration de gemcitabine par stop-flow abdominal dans le cadre d'une étude clinique de phase I menée auprès de patients atteints de cancers avancés du pancréas ou d'ascites malignes réfractaires. Cette étude a démontré que l'exposition régionale à la gemcitabine était augmentée, alors que l'exposition de l'organisme était similaire à une administration de dose standard par voie intraveineuse. D'un point de vue toxicologique la procédure fut relativement bien tolérée. Cependant, même s'il n'est pas attendu de réponses cliniques dans une étude de phase I, aucun signe de réponse au traitement n'a pu être malheureusement observé. En conclusion, même si les thérapies loco-régionales présentent -en théorie- l'avantage pharmacologique d'augmenter les taux du médicaments anticancéreux sur le site de la tumeur, d'autres études précliniques et cliniques sont nécessaires pour démontrer que ces nouvelles modalités de traitement, de nature investigationelle à présent, apportent une réelle amélioration pour la prise en charge des patients cancéreux, en terme de tolérance au traitement et de l'augmentation des taux de réponses et de survie.
Resumo:
RESUME L'objectif de ce travail est de rappeler l'historique des hépatectomies majeures, les bases anatomiques et les techniques opératoires de la chirurgie du foie. Puis, à partir de 212 cas d'exérèses majeures recencées entre 1992 et 2001 dans le service de Chirurgie Viscérale du CHUV, les facteurs de risques, la mortalité et la morbidité des hépatectomies majeures seront étudiés et comparés avec les données récentes de la littérature. L'anatomie hépatique peut être considérée de plusieurs façons morphologiquement (poids, faces, lobe droit, gauche et caudé...), fonctionnellement (segmentation en fonction de la distribution des pédicules portes et de la localisation des veines hépatiques) et chirurgicalement. La terminologie est rappelée (hépatectomies «typique », «atypique », «réglée », «majeure »...). A partir de ces données, les exérèses du foie sont ensuite classées. Les techniques d'hépatectomies sont expliquées, en rappelant les principes généraux, et les voies d'abord. Puis, les techniques de contrôle de l'hémostase, la reconstruction des voies biliaires, les méthodes utilisées par rapport à la tranche de section hépatique et à la loge d'hépatectomie sont discutées, Les acquisitions récentes sont abordées. Sur les 494 hépatecomies réalisées entre janvier 1992 et août 2001, 212 sont majeures. Elles sont reparties en 7 groupes selon l'exérèse (lobectomie G ou D, hépatecomie G ou D etc...). `Sur ces 212 résections, 177 cas concernaient des lésions malignes et 35 cas des lésions bénignes. Les indications ont été classées en 4 groupes : cancer primitif du foie, métastases hépatiques, maladies bénignes (par exemple l'échinococcose alvéolaire), et 8 cas classés dans le groupe «autres ». Une intervention en urgence a été réalisée dans 7 cas. Le bilan préopératoire comprend un bilan biologique et morphologique. Une embolisation de l'artère hépatique a été réalisées dans 6 cas, alors qu'une embolisation dans la veine porte a été faite dans 17 cas. Les modalités chirurgicales (voies d'abord, contrôle vasculaire, drainage biliaire post- opératoire, transfusions per- opératoires, et interventions extra- hépatiques) sont expliqués. En fin, les méthodes statistiques utilisées sont rappelées. Il n'y a pas eu de décès per- opératoire. La mortalité post- opératoire dans les 30 jours a été de 3,3 % (7 cas) et la mortalité globale hospitalière de 5,2 %. Dans cette série, 132 patients n'ont eu aucune complication. La morbidité est de 17% si on considère les complications majeures, ayant concerné 36 patients, mais de 37,75 si l'on considère toutes les complications. Les complications chirurgicales sont le faite d'hémorragie, de fuite biliaire et d'infection du foyer opératoire. Dans notre étude, 33 facteurs de risque ont été analysés. L'analyse statistique uni- variée met den évidence les facteurs de risque suivants : Le nombre de culots de sang transfusés, la présence d'une hépatite, celle d'une cirrhose, le tabagisme, la lobectomie droite, et la présence d'une hypertension artérielle. L'analyse multi variée réalisée a permis de faire ressortir une combinaison de facteur de risque avec une valeur statistique significative et de réaliser une échelle et un score de gravité en fonction des facteurs de risques obtenus dans l'analyse uni variée. Le taux de mortalité globale hospitalière obtenu dans notre série (5,2%) est comparable aux résultats reportés dans d'autres séries.
Resumo:
Résumé Les patients ayant subi une transplantation cardiaque nécessitent un traitement immunosuppresseur à vie. Or un tel traitement entraîne différents effets secondaires, en fonction du médicament et des doses utilisés. La ciclosporine, connue pour sa puissante action immunosuppressive, est utilisée chez ces patients avec grand succès. Ainsi, ces dernières années, on a assisté à une diminution de la morbidité et de la mortalité post- transplantation. Ce succès s'accompagne toutefois d'effets secondaires, qui s'expriment principalement par une hypertension artérielle (HTA) et une dysfonction rénale voire une insuffisance rénale (augmentation de la créatinine et diminution de la clearance de la créatinine). L'introduction d'un nouvel immunosuppresseur, le mycophénolate mofétil (MMF, Cellcept), qui remplace l'azathioprine (AZA), a permis une réduction importante des doses de ciclosporine de 3-5mg/l(g/j à 1- 3mg/l(g/j. Or certaines études ont permis d'observer que l'utilisation du MMF associé à de faibles doses de ciclosporine après la transplantation entraîne une meilleure évolution chez les patients, notamment pour ce qui est de la tension artérielle (TA) et de la fonction rénale. Objectifs Il s'agit de déterminer l'influence, dans le temps, du MMF associé à de faibles doses de ciclosporine sur la TA et la fonction rénale chez les patients transplantés cardiaques, dans deux cas de figure: d'une part lorsque le traitement est commencé immédiatement après la transplantation, d'autre part lorsqu'il n'est introduit qu'une fois la détérioration de la fonction rénale apparue. Patients et méthodes La présente analyse rétrospective porte sur 105 patients ayant subi une transplantation cardiaque au CHUV de Lausanne, évalués un an après la greffe. Les patients ont été subdivisés en 3 groupes. Le groupe 1(67 patients) a reçu de la ciclosporine à doses conventionnelles (3-5mg11<g/j) et de l'azathioprine dès la transplantation. Les patients du groupe II (30 personnes) ont également reçu de la ciclosporine et de l'azathioprine, mais, en raison d'une détérioration rénale progressive, de myalgies ou d'arthralgies secondaires à la ciclosporine, ont bénéficié d'une modification du traitement consistant en une réduction des doses de ciclosporine en association avec du MMF (2gr1j) à la place de l'azathioprine. Enfin, les patients du groupe III (8 patients suivis pendant 2 ans maximum), ont reçu, dès la transplantation, du MMF (2g/D associé à de faibles doses de ciclosporine (jusqu'à 50% de moins que la dose conventionnelle, c'est-à-dire entre 1,0 et 1,5 meg/j). La TA, la créatinine, la clearance de la créatinine, l'incidence des infections et des rejets ont été analysées. Résultats La TA et la créatinine ont augmenté significativement au cours de la première année dans les 3 groupes, sans différences significatives entre ceux-ci. Pendant 5 ans, l'évolution des groupes I et II est restée similaire. Dans le groupe II, aucune amélioration de la créatinine et de la tension artérielle n'a été observée après la modification du traitement. Le groupe III, en revanche, a montré une très claire diminution de l'incidence des rejets aigus, aucun décès et une tendance (non significative) à une meilleure évolution de la créatinine et de la tension artérielle au cours de la première année en comparaison avec les groupes I et II. En ce qui concerne l'incidence des infections, il n'y a pas de différences entre les 3 groupes. Conclusion Une fois qu'une détérioration importante de la fonction rénale est apparue suite à l'administration de doses conventionnelles de ciclosporine, il est peu probable de réussir à récupérer la fonction rénale par une modification du traitement (MMF et faibles doses de ciclosporine), car le rein n'a plus de tissu fonctionnel de réserve. Le traitement associant le MMF à de faibles doses de ciclosporine administré dès la transplantation ayant montré une tendance à une meilleure évolution, notamment à une réduction de l'incidence des rejets (importante cause de mortalité) au cours de la première année, nous pensons que ce nouveau régime de traitement peut être plus bénéfique pour les patients s'il est introduit rapidement après la transplantation.
Resumo:
Keywords Diabetes mellitus; coronary artery disease; myocardial ischemia; prognostic value; single-photon emission computed tomography myocardial perfusion imaging Summary Aim: To determine the long-term prognostic value of SPECT myocardial perfusion imaging (MPI) for the occurrence of cardiovascular events in diabetic patients. Methods: SPECT MPI of 210 consecutive Caucasian diabetic patients were analysed using Kaplan-Meier event-free survival curves and independent predictors were determined by Cox multivariate analyses. Results: Follow-up was complete in 200 (95%) patients with a median period of 3.0 years (0.8-5.0). The population was composed of 114 (57%) men, age 65±10 years, 181 (90.5%) type 2 diabetes mellitus, 50 (25%) with a history of coronary artery disease (CAD) and 98 (49%) presenting chest pain prior to MPI. The prevalence of abnormal MPI was 58%. Patients with a normal MPI had neither cardiac death, nor myocardial infarction, independently of a history of coronary artery disease or chest pain. Among the independent predictors of cardiac death and myocardial infarction, the strongest was abnormal MPI (p<.0001), followed by history of CAD (Hazard Ratio (HR)= t 5.9, p=0.0001), diabetic retinopathy (HR=10.0, p=0.001) and inability to exercise (HR=7.7, p=0.02). Patients with normal 1VIPI had a low revascularisation rate of 2.4% during the follow-up period. Compared to normal MPI, cardiovascular events increased 5.2 fold for reversible defects, 8.5 fold for fixed defects and 20.1 fold for the association of both defects. Conclusion: Diabetic patients with normal MPI had an excellent prognosis independently of history of CAD. On the opposite, an abnormal MPI led to a > 5 fold increase in cardiovascular events. This emphasizes the value of SPECT MPI in predicting and risk-stratifying cardiovascular events in diabetic patients. Mots-Clés Diabète; maladie coronarienne; ischémie myocardique; valeur pronostique; tomoscintigraphie myocardique de perfusion par émission monophotonique Résumé Objectifs: Déterminer la valeur pronostique à long terme de la tomoscintigraphie myocardique de perfusion (TSMP) chez les patients diabétiques pour prédire les événements cardiovasculaires (ECV). Méthodes: Etude de 210 diabétiques caucasiens consécutifs référés pour une TSMP. Les courbes de survie ont été déterminées par Kaplan-Meier et les facteurs prédictifs indépendants par analyses multivariées de type Cox. Résultats: Le suivi a été complet chez 200 (95%) patients avec une durée médiane de 3.0 ans (0.8-50). La population était composée de 114 (57%) hommes, âge moyen 65±10 ans, avec 181 (90.5%) diabète de type 2, 50 (25%) antécédents de maladie coronarienne (AMC) et 98 (49%) patients connus pour un angor avant la TSMP. La prévalence de TSMP anormales était de 58%. Aucun décès d'origine cardiaque ou infarctus du myocarde n'est survenu chez les patients avec une TSMP normale, ceci indépendamment de leurs AMC et des douleurs thoraciques. Les facteurs prédictifs indépendants pour les ECV sont une TSMP anormale (p<.0001), les AMC (Hazard Ratio (HR)=15.9, p-0.0001), suivi de la rétinopathie diabétique (HR-10.0, p=0.001) et de l'incapacité à effectuer un exercice (HR=7.7, p=0.02). Les patients avec une TSMP normale ont présenté un taux de revascularisations de 2.4%. La présence de défauts mixtes accroît le risque d'ECV de 20.1 fois, les défauts fixes de 8.5 fois et les défauts réversibles de 5.2 fois comparés aux sujets avec une TSMP normale. Conclusion: Les patients diabétiques, coronariens ou non, avec une tomoscintigraphie myocardique de perfusion normale ont un excellent pronostique. A l'opposé, une TSMP anormale est associée à une augmentation du risque d'ECV de plus de 5 fois. Ceci confirme l'utilité de la TSMP dans la stratification du risque chez les patients diabétiques.
Resumo:
RESUME Staphylococcus aureus est un important pathogène à gram-positif, à la fois responsable d'infections nosocomiales et communautaires. Le S. aureus résistant à la méthicilline est intrinsèquement résistant aux bêta-lactamines, inhibiteurs de la synthèse de la paroi bactérienne, grâce à une enzyme nouvellement acquise, la protéine liant la pénicilline 2A, caractérisée par une faible affinité pour ces agents et pouvant poursuivre la synthèse de la paroi, alors que les autres enzymes sont bloquées. Ce micro-organisme a également développé des résistances contre quasiment tous les antibiotiques couramment utilisés en clinique. Parallèlement au développement de molécules entièrement nouvelles, il peut être utile d'explorer d'éventuelles caractéristiques inattendues de médicaments déjà existants, par exemple en les combinant, dans l'espoir d'un potentiel effet synergique. Comprendre les mécanismes de tels effets synergiques pourrait contribuer à la justification de leur utilisation clinique potentielle. Récemment, un effet synergique contre le S. aureus résistant à la méthicilline a été décrit entre la streptogramine quinupristine-datfopristine et les bêta-lactamines, aussi bien in vitro qu'in vivo. Le présent travail a pour but de proposer un modèle pour le mécanisme de cette interaction positive et de l'étendre à d'autres classes d'antibiotiques. Premièrement, un certain nombre de méthodes microbiologiques ont permis de mieux cerner la nature de cette interaction, en montrant qu'elle agissait spécifiquement sur le S. aureus résistant à la méthicilline et qu'elle était restreinte à l'association entre inhibiteurs de la synthèse des protéines et bêta-lactamines. Deuxièmement, L'observation de l'influence des inhibiteurs de la synthèse des protéines sur la machinerie de la paroi bactérienne, c'est-à-dire sur l'expression des protéines liant la pénicilline, responsables de la synthèse du peptidoglycan, a montré une diminution de la quantité de ta protéine liant la pénicilline 2, connue pour posséder une activité de transglycosylation, indispensable au bon fonctionnement de la protéine liant la pénicilline 2A, responsable de la résistance à la méthicilline. Troisièmement, l'analyse fine de la composition du peptidoglycan extrait de bactéries, avant ou après traitement par des inhibiteurs de la synthèse des protéines, a montré des altérations corrélant avec leur capacité à agir en synergie avec les bêta-lactamines contre S. aureus résistant à ta méthicilline. Ces altérations dans les muropeptides pourraient représenter une signature de la diminution de la quantité de la protéine liant la pénicilline 2. Le modèle mécanistique retenu considère que les inhibiteurs de la synthèse des protéines pourraient diminuer l'expression de la protéine Liant la pénicilline 2, indispensable à la résistance à la méthiciltine, et que ce déséquilibre dans les enzymes synthétisant la paroi bactérienne pourrait générer une signature dans les muropeptides. SUMMARY Staphylococcus aureus is a major gram-positive pathogen causing both hospital-acquired and community-acquired infections. Methicillin- resistant Staphylococcus aureus is intrinsically resistant to the cell wall inhibitors beta-lactams by virtue of a newly acquired cell-wall-building enzyme, tow-affinity penicillin-binding protein 2A, which can build the wall when other penicillin-binding proteins are blocked. Moreover, the microorganism has developed resistance to virtually all non-experimental antibiotics. In addition of producing entirely new molecules, it is useful to explore unexpected features of existing drugs, for example by using them in combination, expecting drug synergisms. Understanding the mechanisms of such synergisms would help justify their putative clinical utilization. Recently, a synergism between the streptogramin quinupristin-dalfopristin and beta-lactams was reported against methicillin-resistant S. aureus, both in vitro and in vivo. The present work intends to propose a model for the mechanism of this positive interaction and to extend it to other drug classes. First, microbiological experimentation helped better defining the nature of this interaction, restricting it to methicillin-resistant S. aureus, and to the association of protein synthesis inhibitors with beta-lactams. Second, the observation of inhibitors of protein synthesis influence on the cell-wall-building machinery, i.e. on the expression of penicillin-binding proteins responsible for peptidoglycan synthesis, showed a decrease in the amount of penicillin-binding protein 2, known to provide a transglycosylase activity for glycan chain elongation, indispensable for the functionality of the low-affinity penicillin-binding protein 2A responsible for methicillin resistance. Third, the fine analysis of the peptidoglycan composition purified from bacteria before or after treatment with inhibitors of protein synthesis showed alterations that correlated with their ability to synergize with beta-lactams against methicillin-resistant S. aureus. These muropeptide alterations could be the signature of decrease in the amount of penicillin-binding protein 2. The retained mechanistic model is that inhibitors of protein synthesis could decrease the expression of penicillin-binding protein 2, wich is indispensable for methicillin-resistance, and that this imbalance in cell-wall-building enzymes could generate a muropeptide signature.