1000 resultados para Données probantes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Cette étude a pour but de déterminer la fréquence de survenue de l'arrêt cardio-respiratoire (ACR) au cabinet médical qui constitue un élément de décision quant à la justification de la présence d'un défibrillateur semi-automatique (DSA) au cabinet médical. Matériel et Méthode: Analyse rétrospective des fiches d'intervention pré-hospitalière des ambulances et des SMUR (Service Mobile d'Urgence et de Réanimation) du canton de Vaud (650'000 habitants) entre 2003 et 2006 qui relataient un ACR. Les variables suivantes ont été analysées: chronologie de l'intervention, mesures de réanimation cardio-pulmonaire (RCP) appliquées, diagnostic présumé, suivi à 48 heures. Résultats: 17 ACR (9 _, 8 _) ont eu lieu dans les 1655 cabinets médicaux du canton de Vaud en 4 ans sur un total de 1753 ACR extrahospitaliers, soit 1% de ces derniers. Tous ont motivés une intervention simultanée d'une ambulance et d'un SMUR. L'âge moyen était de 70 ans. Le délai entre l'ACR et l'arrivée sur site d'un DSA était en moyenne de plus de 10 minutes (min-max: 4-25 minutes). Dans 13 cas évaluables, une RCP était en cours à l'arrivée des renforts, mais seulement 7 étaient qualifiées d'efficaces. Le rythme initial était une fibrillation ventriculaire (FV) dans 8 cas et ont tous reçu un choc électrique externe (CEE), dont 1 avant l'arrivée des secours administré dans un cabinet équipé d'un DSA. Le diagnostic était disponible pour 9 cas: 6 cardiopathies, 1 embolie pulmonaire massive, 1 choc anaphylactique et 1 tentamen médicamenteux. Le devenir de ces patients a été marqué par 6 décès sur site, 4 décès à l'admission à l'hôpital et 7 vivants à 48 heures. Les données ne permettent pas d'avoir un suivi ni à la sortie de l'hôpital ni ultérieurement. Conclusions: Bien que la survenue d'un ACR soit très rare au cabinet médical, il mérite une anticipation particulière de la part du médecin. En effet, le délai d'arrivée des services d'urgences nécessite la mise en oeuvre immédiate de mesures par le médecin. En outre, comme professionnel de la santé, il se doit d'intégrer la chaîne de survie en procédant à une alarme précoce du 144 et initier des gestes de premier secours («Basic Life Support»). La présence d'un DSA pourrait être envisagée en fonction notamment de l'éloignement de secours professionnels équipés d'un DSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte¦Le VIH reste une des préoccupations majeures de santé publique dans le monde. Le nombre de patients infectés en Europe continue de croître et s'élève, en 2008, à 2.3 millions (1). De plus, environ 30 % des personnes séropositives ignorent leur statut et, de ce fait, contribuent à la propagation de l'épidémie. Ces patients sont responsables de la moitié des nouveaux cas du VIH (2) ; ils transmettent, en effet, 3.5 fois plus l'infection que les patients dont le diagnostic est connu (3).¦Aux USA, en raison de l'épidémiologie actuelle du VIH, les Centers for Disease Control and Prevention (CDC) ont, en septembre 2006, mis le point sur la nécessité d'étendre drastiquement les tests et, de ce fait, ont publié de nouvelles recommandations. Non seulement, le test devra dépasser les groupes à risque dans les zones à grande prévalence mais aussi, être répandu à toute la population adulte de 13 à 64 ans sauf si la prévalence du VIH est en dessous de 0.1 % (4). Cette démarche est appelée routine opt-out HIV screening et plusieurs arguments parlent en faveur d'un dépistage systématique. Cette maladie rempli tout d'abord les 4 critères pour l'introduction d'un dépistage systématique : une maladie grave pouvant être mise en évidence avant l'apparition des symptômes, son diagnostic améliore la survie par une progression moins rapide et diminution de la mortalité, des tests de dépistage sensibles et spécifiques sont disponibles et les coûts sont moindres en comparaison aux bénéfices (5). Aux USA, 73 % des patients diagnostiqués à un stade avancé de l'infection VIH entre 2001 et 2005 avaient eu recours à l'utilisation des systèmes de soins au moins une fois dans les 8 ans précédant le diagnostic (6). Ces occasions manquées font aussi partie des arguments en faveur d'un dépistage systématique. En règle générale, le médecin se basant uniquement sur les symptômes et signes, ainsi que sur l'anamnèse sexuelle sous-estime la population à tester. Ce problème de sélection des candidats n'a plus lieu d'être lors d'un tel screening. Après cette publication des recommandations du CDC, qui introduit le dépistage systématique, il a été constaté que seulement 1/3 du personnel soignant interrogé connaissait les nouvelles directives et seulement 20 % offrait un dépistage de routine à tous les patients concernés (7). Cette étude nous montre alors qu'il est impératif de vérifier le niveau de connaissances des médecins après la publication de nouvelles recommandations.¦Devant le problème de l'épidémie du VIH, la Suisse opte pour une stratégie différente à celle des Etats-Unis. La Commission d'experts clinique et thérapie VIH et SIDA (CCT) de l'OFSP a tout d'abord publié, en 2007, des recommandations destinées à diminuer le nombre d'infections VIH non diagnostiquées, grâce à un dépistage initié par le médecin (8). Cette approche, appelée provider initiated counselling and testing (PICT), complétait alors celle du voluntary counselling and testing (VCT) qui préconisait un dépistage sur la demande du patient. Malheureusement, le taux d'infections diagnostiquées à un stade avancé a stagné aux environs de 30 % jusqu'en 2008 (9), raison pour laquelle l'OFSP apporte, en 2010, des modifications du PICT. Ces modifications exposent différentes situations où le test du VIH devrait être envisagé et apportent des précisions quant à la manière de le proposer. En effet, lors d'une suspicion de primo-infection, le médecin doit expliquer au patient qu'un dépistage du VIH est indiqué, un entretien conseil est réalisé avec des informations concernant la contagiosité élevée du virus à ce stade de l'infection. Si le patient présente un tableau clinique qui s'inscrit dans le diagnostic différentiel d'une infection VIH, le médecin propose le test de manière systématique. Il doit alors informer le patient qu'un tel test sera effectué dans le cadre d'une démarche diagnostique, sauf si celui-ci s'y oppose. Enfin, dans d'autres situations telles que sur la demande du patient ou si celui-ci fait partie d'un groupe de population à grande prévalence d'infection VIH, le médecin procède à une anamnèse sexuelle, suivie d'un entretien conseil et du test si l'accord explicite du patient a été obtenu (10).¦Nous pouvons donc constater les différentes stratégies face à l'épidémie du VIH entre les USA et la Suisse. Il est nécessaire d'évaluer les conséquences de ces applications afin d'adopter la conduite la plus efficace en terme de dépistage, pour amener à une diminution des transmissions, une baisse de la morbidité et mortalité. Aux USA, des études ont été faites afin d'évaluer l'impact de l'approche opt-out qui montrent que le screening augmente la probabilité d'être diagnostiqué (11). En revanche, en Suisse, aucune étude de ce type n'a été entreprise à l'heure actuelle. Nous savons également qu'il existe un hiatus entre la publication de nouvelles recommandations et l'application de celles-ci en pratique. Le 1er obstacle à la mise en oeuvre des guidelines étant leur méconnaissance (12), il est alors pertinent de tester les connaissances des médecins des urgences d'Hôpitaux de Suisse au sujet des nouvelles recommandations sur le dépistage du VIH de l'OFSP de mars 2010.¦Objectifs¦Montrer que les recommandations de l'OFSP de mars 2010 ne sont pas connues des médecins suisses.¦Méthodes¦Nous testerons la connaissance des médecins concernant ces recommandations via un questionnaire qui sera distribué lors d'un colloque organisé à cet effet avec tous les médecins du service des urgences d'un même établissement. Il n'y aura qu'une séance afin d'éviter d'éventuels biais (transmission d'informations d'un groupe à un autre). Ils recevront tout d'abord une lettre informative, accompagnée d'un formulaire de consentement pour l'utilisation des données de manière anonyme. La feuille d'information est rédigée de façon à ne pas influencer les candidats pour les réponses aux questions. Le questionnaire comprend deux parties, une première qui comprend divers cas cliniques. Les candidats devront dire si ces situations se trouvent, selon eux, dans les nouvelles recommandations de l'OFSP en termes de dépistage du VIH et indiquer la probabilité d'effectuer le test en pratique. La deuxième partie interrogera sur la manière de proposer le test au patient. La durée nécessaire pour remplir le questionnaire est estimée à 15 minutes.¦Le questionnaire élaboré avec la collaboration de Mme Dubois de l'UMSP à Lausanne et vont être testés par une vingtaine de médecins de premier recours de Vidy Med et Vidy Source, deux centres d'urgences lausannois.¦Réstulats escomptés¦Les médecins suisse ne sont pas au courant des nouvelles recommandations concernant le dépistage du VIH.¦Plus-value escomptée¦Après le passage du questionnaire, nous ferons une succincte présentation afin d'informer les médecins au sujet de ces recommandations. Aussi, l'analyse des résultats du questionnaire nous permettra d'agir au bon niveau pour que les nouvelles recommandations de l'OFSP de mars 2010 soient connues et appliquées, tout en ayant comme objectif l'amélioration du dépistage du VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle développé à l'Institut universitaire de médecine sociale et préventive de Lausanne utilise un programme informatique pour simuler les mouvements d'entrées et de sorties des hôpitaux de soins généraux. Cette simulation se fonde sur les données récoltées de routine dans les hôpitaux; elle tient notamment compte de certaines variations journalières et saisonnières, du nombre d'entrées, ainsi que du "Case-Mix" de l'hôpital, c'est-à-dire de la répartition des cas selon les groupes cliniques et l'âge des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Objectif: l'observation des variations de volume de la matière grise (MG), de la matière blanche (MB), et du liquide céphalo-rachidien (LCR) est particulièrement utile dans l'étude de nombreux processus physiopathologiques, la mesure quantitative 'in vivo' de ces volumes présente un intérêt considérable tant en recherche qu'en pratique clinique. Cette étude présente et valide une méthode de segmentation automatique du cerveau avec mesure des volumes de MG et MB sur des images de résonance magnétique. Matériel et Méthode: nous utilisons un algorithme génétique automatique pour segmenter le cerveau en MG, MB et LCR à partir d'images tri-dimensionnelles de résonance magnétique en pondération Ti. Une étude morphométrique a été conduite sur 136 sujets hommes et femmes de 15 à 74 ans. L'algorithme a ensuite été validé par 5 approches différentes: I. Comparaison de mesures de volume sur un cerveau de cadavre par méthode automatique et par mesure de déplacement d'eau selon la méthode d'Archimède. 2. Comparaison de mesures surfaces sur des images bidimensionnelles segmentées soit par un traçage manuel soit par la méthode automatique. 3. Evaluation de la fiabilité de la segmentation par acquisitions et segmentations itératives du même cerveau. 4. Les volumes de MG, MB et LCR ont été utilisés pour une étude du vieillissement normal de la population. 5. Comparaison avec les données existantes de la littérature. Résultats: nous avons pu observer une variation de la mesure de 4.17% supplémentaire entre le volume d'un cerveau de cadavre mesuré par la méthode d'Archimède, en majeure partie due à la persistance de tissus après dissection_ La comparaison des méthodes de comptage manuel de surface avec la méthode automatique n'a pas montré de variation significative. L'épreuve du repositionnement du même sujet à diverses reprises montre une très bonne fiabilité avec une déviation standard de 0.46% pour la MG, 1.02% pour la MB et 3.59% pour le LCR, soit 0.19% pour le volume intracrânien total (VICT). L'étude morphométrique corrobore les résultats des études anatomiques et radiologiques existantes. Conclusion: la segmentation du cerveau par un algorithme génétique permet une mesure 100% automatique, fiable et rapide des volumes cérébraux in vivo chez l'individu normal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une méta-analyse concernant l'utilisation de la rosiglitazone chez les diabétiques de type 2 a révélé une augmentation significative du risque d'infarctus du myocarde et une tendance à la surmortalité cardiovasculaire. La méthodologie de cette étude ainsi que ses conclusions ont été beaucoup critiquées. Cette étude montre les limites des méta-analyses auxquelles on prête un rang manifestement trop élevé dans la hiérarchie des niveaux de preuve. L'étude 4T a évalué trois schémas d'insuline dans le traitement du diabète de type 2. Les résultats à un an montrent que seule une minorité des patients atteignent les objectifs. Post-Steno 2 a été présenté au congrès européen du diabète. Ces nouvelles données confirment que le traitement intensifié de tous les facteurs de risque cardiovasculaire permet une réduction majeure de la mortalité cardiovasculaire après 13,3 ans. A recent meta-analysis on the rosiglitazone in the treatment of type 2 diabetes revealed a significant increased risk of myocardial infarction and a trend to a higher cardiovascular mortality. In the following month after this publication, the methodology as its conclusions were criticized. This study shows the limits of the meta-analyses to which one lends a row obviously too high in the hierarchy of the levels of evidence. The study 4T evaluated 3 insulin strategies in the treatment of the type 2 diabetes. The results at one year show that only a minority of the patients achieve the goals. Post-Steno 2 was presented at the European congress diabetes. These new data confirm that the intensified treatment of all cardiovascular factors risk allows a major reduction of cardiovascular mortality after 13.3 years

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèseEnjeux et contexteL'épidémie d'obésité est un enjeu majeur de santé publique, et l'augmentation parallèle du nombre de patients obèses admis aux soins intensifs appelle à une meilleure connaissance des spécificités de la physiopathologie de cette population. De nombreuses anomalies physiologiques associées à l'obésité sont connues, notamment une inflammation sub-clinique chronique. Cependant, les connaissances concernant la réponse inflammatoire lors d'une agression des sujets obèses sont pour l'heure assez limitées. Bien que les réponses inflammatoires in vitro du tissu adipeux soient augmentées, les données in vivo sont pour l'instant non-conclusives.L'injection intraveineuse d'endotoxine est un test hautement reproductible provoquant une inflammation de durée limitée. Il s'agit d'un test validé pour l'étude in vivo lors des réponses inflammatoires. L'endotoxine est un lipopolysaccharide contenu dans les membranes externes des bactéries gram- négatives, notamment de E.Coli. Notre équipe possède une expérience de ces tests avec endotoxine acquise lors d'une série de recherches sur les propriétés modulatrices de l'inflammation des acides gras polyinsaturés oméga-3.Lors de l'élaboration de ce projet, la réponse du sujet obèse à l'endotoxine restait méconnue. L'objectif de l'essai est d'étudier les spécificités des réponses à l'endotoxine, notre hypothèse étant que les réponses physiologiques, métaboliques et endocrines sont amplifiées chez cette catégorie de sujets.Présentation de l'étudeAfin de tester notre hypothèse, nous avons conçu une étude prospective randomisée, avec 2 procédures (injection d'endotoxine vs de placebo) en cross-over: le protocole d'investigation durait chaque fois 8h. Huit volontaires obèses grade I (BMI médian de 33.8 kg/m2) sans morbidité ont été enrôlés. Les variables étudiées étaient: les fréquences cardiaque et respiratoire, la température, la tension artérielle, le débit cardiaque et la saturation veineuse en oxygène, ainsi qu'une calorimétrie indirecte en continu. Les symptômes tels que myalgie, céphalée et nausée ont également été consignés. Des marqueurs hormonaux et inflammatoires (Cortisol, ACTH, catécholamines, insuline, glucose, glucagon, leptine, TNF-alpha, IL-6 et CRP) ont été dosés de manière répétée.Statistiques : Pour limiter les effets de la variabilité inter-individuelle et permettre une comparaison des réponses, le calcul des aires sous la courbe (AUC) selon la méthode trapézoïdale a été utilisé. Le groupe étudié étant de « petite taille », bien ceci soit habituel pour les études de physiologie, et les réponses n'étant pas normalement distribuées, des tests non-paramétriques ont été appliqués : nous savons que la puissance statistique de notre étude est limitée. Considérant les désagréments majeurs (bien que rapidement réversibles) vécus par les volontaires soumis à des infections d'endotoxine, leurs réponses ont été comparées de manières qualitative à celles des non-obèse mesurés lors de précédentes études pour éviter de répliquer ces expériences désagréables et parfaitement prévisibles.Les résultats de cette étude sont parfaitement superposables à celles trouvées chez les sujets de BMI normal, invalidant notre hypothèse de départ d'une éventuelle réponse exacerbée.Conclusions et perspectivesCette étude est la première publication concernant la réponse du patient obèse à un test d'endotoxine. La similitude des résultats chez les patients obèses et non-obèses montre que l'obésité n'est pas en soi un facteur augmentant les réponses inflammatoires.Ces résultats concernent des sujets obèses sains et ne peuvent pas être extrapolés aux sujets obèses avec comorbidités, appelant à de futures investigations chez cette catégorie de patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rythme journalier de l'activité a été étudié en captivité, à 25° C, chez 7 espèces de Crocidurinae africaines (Sylvisorex megalura, Crocidura bottegi, C. jouvenetae, C. poensis, C. wimmeri, C. flavescens, C. giffardi), pesant entre 4 et 100 g. Ces observations sont comparées à des données choisies obtenues à 5° C et 20° C chez deux espèces européennes (Suncus etruscus et Crocidura russula). 1. L'activité journalière totale n'est pas liée de façon nette au poids corporel au sein des espèces étudiées. 2. Les espèces tropicales sont caractérisées par une activité presque exclusivement nocturne (4 à 30min/h de nuit contre 0 à 2 min/f de jour). Durant le repos diurne, C. jouvenetae présente régulièrement des torpeurs spontanées. 3. Les espèces européennes ont comparativement une activité diurne importante. En été, à température élevée, l'activité présente cependant également un rythme journalier marqué à prédominance nocturne; ce rythme s'atténue progressivement lorsque la température s'abaisse, essentiellement par la diminution de l'activité nocturne. Une faible activité diurne semble caractériser les Crocidurinae. Cette particularité est discutée à la lumière de données physiologiques et paléozoogéographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Objectifs : évaluer la survie intra-hospitalière des patients présentant un infarctus du myocarde avec sus-décalage du segment ST admis dans les hôpitaux suisses entre 2000 et 2007, et identifier les paramètres prédictifs de mortalité intra-hospitalière et d'événements cardio-vasculaires majeurs (infarctus, réinfarctus, attaque cérébrale). Méthode : utilisation des données du registre national suisse AMIS Plus (Acute Myocardial lnfarction and Unstable Angina in Switzerland). Tous les patients admis pour un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau dans un hôpital suisse participant au registre entre janvier 2000 et décembre 2007 ont été inclus. Résultats: nous avons étudié 12 026 patients présentant un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau admis dans 54 hôpitaux suisses différents. L'âge moyen est de 64+-13 ans et 73% des patients inclus sont des hommes. L'incidence de mortalité intra-hospitalière est de 7.6% en 2000 et de 6% en 2007. Le taux de réinfarctus diminue de 3.7% en 2000 à 0.9% en 2007. L'utilisation de médicaments thrombolytiques chute de 40.2% à 2% entre 2000 et 2007. Les paramètres prédictifs cliniques de mortalité sont : un âge> 65-ans, une classe Killips Ill ou IV, un diabète et un infarctus du myocarde avec onde Q (au moment de la présentation). Les patients traités par revascularisation coronarienne percutanée ont un taux inférieur de mortalité et de réinfarctus (3.9% versus 11.2% et 1.1% versus 3.1%, respectivement, p<0.001) sur la période de temps étudiée. Le nombre de patients traités par revascularisation coronarienne percutanée augmente de 43% en 2000 à 85% en 2007. Les patients admis dans les hôpitaux bénéficiant d'une salle de cathétérisme cardiaque ont un taux de mortalité plus bas que les patients hopitalisés dans les centres sans salle de cathétérisme cardiaque. Mais les caractéristiques démographiques de ces deux populations sont très différentes. La mortalité intra-hospitalière ainsi que le taux de réinfarctus diminuent significativement au cours y de la période étudiée, parallèlement à l'augmentation de |'utilisation de la revascularisation coronarienne percutanée. La revascularisation coronarienne percutanée est le paramètre prédictif de survie le plus important. Conclusion: la mortalité intra-hospitalière et le taux de réinfarctus du myocarde ont diminué de manière significative chez les patients souffrant d'un infarctus du myocarde avec sus-décalage du segment ST au cours de ces sept dernières années, parallèlement à l'augmentation significative de la revascularisation coronarienne percutanée en plus de la thérapie médicamenteuse. La survie n'est È pas liée au lieu d'hospitalisation mais à l'accès à une revascularisation coronarienne percutanée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHESE La dégénérescence maculaire liée à l'âge (DMLA) est une maladie très fréquente qui représente la cause principale de cécité légale chez les sujets de plus de 50 ans en Occident. Bien que l'étiologie exacte de cette affection ne soit pas complètement connue, des facteurs environnementaux et génétiques influencent sa survenue et son évolution. A ce sujet, de récentes recherches ont notamment montré une association marquée à une variante du gène CFH, Y402H. Nous ignorons toutefois si le polymorphisme Y402H est associé à un phénotype particulier de la maladie. Cette étude a pour but d'établir si cette variante du gène CFH est associée à certaines caractéristiques phénotypiques précoces. L'étude porte sur quatre cent vingt patients atteints de DMLA qui ont été phénotypés sur la base de photographie du fond d'oeil (International Classification and Grading system for age- related macular degeneration) et génotypés à partir d'ADN leucocytaire à la recherche de la variante Y402H du gène CFH. Ces données ont ensuite fait l'objet d'une analyse statistique de l'association génotype-phénotype (le génotype de 50 sujets-contrôle a été utilisé pour confirmer l'association du polymorphisme avec la DMLA). Les résultats obtenus, corrigés pour l'âge et le sexe, montrent un odds ratio (OR) de développer une DMLA de 2.95 en présence d'au moins un allèle à risque C et de 9.05 pour les homozygotes CC. Par contre, aucune influence n'est observée sur les stades de la maladie (précoce-tardif)? Une association significative entre le génotype CC et la présence de druses périphériques (p=0.028), ainsi que la localisation centrale des druses (p=0,049) a été mise en évidence. Aucune autre tendance n'a été dégagée concernant les critères restants (taille, surface totale recouverte, localisation nasale des druses) ou les changements pigmentaires. Cette étude a permis de confirmer l'association entre la variante Y4G2H et la DMLA dans la population suisse et de conclure que la variante Y402H du gène CFH présente une association géno-phénotypique pour certaines caractéristiques des druses. Il est probable que d'autres facteurs génétiques encore influencent le phénotype de la DMLA. De nouvelles recherches seront nécessaires pour préciser l'influence de ces autres facteurs génétiques ou environnementaux, en vue d'une meilleure compréhension de la pathogenèse de cette affection, et pour développer des mesures thérapeutiques et prophylactiques adaptées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Célèbre est devenu le concept d'empreinte écologique qui se présente comme un indicateur composite supposé nous renseigner sur l'espace utilisé par les hommes pour produire les ressources qu'ils consomment et les déchets qu'ils rejettent, le mettre en regard de la capacité écologique de la planète (la biocapacité), donc le revenu écologique à disposition des hommes. Lorsque l'empreinte écologique excède la biodiversité, cela signifie que la planète est en danger. Le succès de cet indicateur élaboré par le Global Footprint Network (GFN) tient sans doute aux conclusions sensationnelles qui se dégagent des calculs effectués : par exemple, la propagation à la planète du mode de vie nord-américain exigerait à elle seule cinq planètes... Il est donc important de comprendre comment a été élaboré cet indicateur, quelle est sa fiabilité et quels enseignements peuvent en être tirés en vue de l'adoption d'une politique de développement durable. Tel est le premier objectif de cet article qui en explique la philosophie, montre comment est conçu cet indicateur et comment sont opérés les calculs. Mais les auteurs ne s'arrêtent pas là. Ils rappellent certaines impasses faites consciemment par le GFN, puis les critiques déjà adressées à cet indicateur qui, précisément en raison de son caractère composite, agrège des données hétérogènes et procède à des calculs et des pondérations sujets à caution dont les enseignements sont donc contestables ? par exemple lorsqu'il suggère que certains pays auraient intérêt à remplacer leurs forêts pour accroître les surfaces cultivables, alors même que l'espace bâti (amputant lui aussi des terres arables) n'est absolument pas remis en question. Au-delà même de ces réserves, les auteurs prolongent et approfondissent la critique de l'empreinte écologique. Ainsi soulignent-ils, par exemple, que l'empreinte carbone compte pour la moitié de l'empreinte totale et que, si on se contentait de mesurer celle-ci en quantité physique plutôt qu'en usant d'un artefact (l'hectare global), le calcul serait sans doute plus robuste et les conclusions non moins alarmistes puisqu'il faudrait cette fois 11 planètes si d'aventure le mode de vie nord-américain devait s'étendre au monde entier. Même s'il peut paraître parfois un peu ardu, cet article est à lire absolument car ses auteurs y mettent en évidence un certain nombre de problèmes majeurs que nul ne saurait ignorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study was initiated to investigate partial melting within the high-grade metamorphic rocks beneath the Little Cottonwood contact aureole (Utah, USA), in order to understand the melt generation, melt migration, and geometry of initial melt distribution on grain scale during crustal anatexis. The emplacement of the Little Cottonwood stock produced a contact aureole in the pelitic host rocks of the Big Cottonwood formation (BC). Metamorphic isogrades in pelitic rocks range form biotite to 2nd sillimanite grade as a function of distance from the contact. Migmatites are restricted to the highest grade and resulted form partial melting of the BC formation rocks. First melt was produced by a combined muscovite/biotite dehydration reaction in the sillimanite + k-feldspar stability field. Melt extraction from the pelites resulted in restites (magnetite + cordierite + alumosilicate ± biotite) surrounded by feldspar enriched quartzite zones. This texture is the result of gradual infiltration of partial melts into the quartzite. Larger, discrete melt accumulation occurred in extensional or transpressional domains such as boudin necks, veins, and ductile shear zones. Melt composition are Si02- rich, crystallized as pegmatites, and apparently were very mobile. They were able to infiltrate the quartzite pervaisivly. These melts are similar in composition to first melts produced in the hydrothermal partial melt experiments at 2kbar between 700 - 800°C on fine grained high metamorphic rocks (andalusite-cordierited-biotite-zone) of the BC formation. The experimental melts are water rich and in disequilibrium with the melting rock. Initial melt composition is heterogeneous for short run duration, reflective a lack of chemical equilibrium between individual melt pools. Rock core scale heterogeneity decreased with time indicating partial homogenization of melt compositions. A simultaneous shift of melt composition to higher silica content with time was observed. The silica content of the melt increased due to local melt/mineral reactions. Melt textures indicate that reactive melt transport is most efficient along grain boundaries rimmed by dissimilar grains. Melt heterogeneity resulted in chemical potential gradients which are major driving forces for initial melt migration and govern melt distribution during initial melting. An additional subject of the thesis is the crystal size distributions of opaque minerals in a fine-grained, high-grade meta-pelite of the Big Cottonwood which were obtained from 3D X-ray tomography (uCT) and 2D thin section analysis. µCT delivers accurate size distributions within a restricted range (~ a factor of 20 in size in a single 3D image), while the absolute number of crystals is difficult to obtain from these sparsely distributed, small crystals on the basis of 2D images. Crystal size distributions obtained from both methods are otherwise similar. - Ce travail de recherche a été entrepris dans le but d'étudier les processus de fusion partielle dans les roches fortement métamorphiques de l'auréole de contact de Little Cottonwood (Utah, USA) et ceci afin de comprendre la génération de liquide de fusion, la migration de ces liquides et la géométrie de la distribution initiale des liquides de fusion à l'échelle du grain durant l'anatexie de la croûte. L'emplacement du petit massif intrusif de Little Cottonwood a produit une auréole de contact dans les roches pélitiques encaissantes appartenant à la Foimation du Big Cottonwood (BC). Les isogrades métamorphiques dans les roches pélitiques varient de l'isograde de la biotite à la deuxième isograde de la sillimanite en fonction de la distance par rapport au massif intrusif. Les migmatites sont restreintes aux zones montrant le plus haut degré métamorphique et résultent de la fusion partielle des roches de la Formation de BC. Le premier liquide de fusion a été produit par la réaction de déshydratation combinée de la muscovite et de la biotite dans le champ de stabilité du feldspath potassique Pt de la sillimanite. L'extraction du liquide de fusion des pélites forme des restites (magnétites + cordiérite + aluminosilicate ± biotite) entourées par des zones de quartzites enrichies en feldspath. Cette texture est le résultat de l'infiltration graduelle du liquide de fusion partielle dans les quartzites. Des accumulations distinctes et plus larges de liquide de fusion ont lieu dans des domaines d'extension ou de transpression tels que les boudins, les veines, et les zones de cisaillement ductile. La composition des liquides de fusion est similaire à celle des liquides pegmatoïdes, et ces liquides sont apparemment très mobiles et capables d'infiltrer les quartzites. Ces liquides de fusion ont la même composition que les premiers liquides produits dans les expériences hydrotheunales de fusion partielle à 2kbar et entre 700-800° C sur les roches finement grenues et hautement métamorphiques (andalousite-cordiérite-biotite zone) de la Formation de BC. Les liquides de fusion obtenus expérimentalement sont riches en eau et sont en déséquilibre avec la roche en fusion. La composition initiale des liquides de fusion est hétérogène pour les expériences de courte durée et reflète l'absence d'équilibre chimique entre les différentes zones d'accumulation des liquides de fusion. L'hétérogénéité à l'échelle du noyau s'estompe avec le temps et témoigne de l'homogénéisation de la composition des liquides de fusion. Par ailleurs, on observe parallèlement un décalage de la composition des liquides vers des compositions plus riches en silice au cours du temps. Le contenu en silice des liquides de fusion évolue vers un liquide pegmatitique en raison des réactions liquides/minéraux. Les textures des liquides de fusion indiquent que le transport des liquides est plus efficace le long des bordures de grains bordés par des grains différents. Aucun changement apparent du volume total n'est visible. L'hétérogénéité des liquides s'accompagne d'un gradient de potentiel chimique qui sert de moteur principal à la migration des liquides et à la distribution des liquides durant la fusion. Un sujet complémentaire de ce travail de thèse réside dans l'étude de la distribution de la taille des cristaux opaques dans les pélites finement grenues et fortement métamorphiques de la Formation de Big Cottonwood. Les distributions de taille ont été obtenues suite à l'analyse d'images 3D acquise par tomographie ainsi que par analyse de lames minces. La microtomographie par rayon X fournit une distribution de taille précise sur une marge restreinte (- un facteur de taille 20 dans une seule image 3D), alors que le nombre absolu de cristaux est difficile à obtenir sur la base d'image 2D en raison de la petite taille et de la faible abondance de ces cristaux. Les distributions de taille obtenues par les deux méthodes sont sinon similaire. Abstact: Chemical differentiation of the primitive Earth was due to melting and separation of melts. Today, melt generation and emplacement is still the dominant process for the growth of the crust. Most granite formation is due to partial melting of the lower crust, followed by transport of magma through the crust to the shallow crust where it is emplaced. Partial melting and melt segregation are essential steps before such a granitic magma can ascent through the crust. The chemistry and physics of partial melting and segregation is complex. Hence detailed studies, in which field observations yield critical information that can be compared to experimental observations, are crucial to the understanding of these fundamental processes that lead and are leading to the chemical stratification of the Earth. The research presented in this thesis is a combined field and experimental study of partial melting of high-grade meta-pelitic rocks of the Little Cottonwood contact aureole (Utah, USA). Contact metamorphic rocks are ideal for textural studies of melt generation, since the relatively short times of the metamorphic event prevents much of the recrystallization which plagues textural studies of lower crustal rocks. The purpose of the study is to characterize melt generation, identify melting reactions, and to constrain melt formation, segregation and migration mechanisms. In parallel an experimental study was undertaken to investigate melt in the high grade meta pelitic rocks, to confirm melt composition, and to compare textures of the partial molten rock cores in the absence of deformation. Results show that a pegmatoidal melt is produced by partial melting of the pelitic rocks. This melt is highly mobile. It is capable of pervasive infiltration of the adjacent quartzite. Infiltration results in rounded quartz grains bordered by a thin feldspar rim. Using computed micro X-ray tomography these melt networks can be imaged. The infiltrated melt leads to rheological weakening and to a decompaction of the solid quartzite. Such decompaction can explain the recent discovery of abundant xenocrysts in many magmas, since it favors the isolation of mineral grains. Pervasive infiltration is apparently strongly influenced by melt viscosity and melt-crystal wetting behavior, both of which depend on the water content of melt and the temperature. In all experiments the first melt is produced on grain boundaries, dominantly by the local minerals. Grain scale heterogeneity of a melting rock leads thus to chemical concentration gradients in the melt, which are the driving force for initial melt migration. Pervasive melt films along grain boundaries leading to an interconnected network are immediately established. The initial chemical heterogeneities in the melt diminish with time. Résumé large public: La différenciation chimique de la Terre primitive est la conséquence de la fusion des roches et de la séparation des liquides qui en résultent. Aujourd'hui, la production de liquide magmatique est toujours le mécanisme dominant pour la croissance de la croûte terrestre. Ainsi la formation de la plupart des granites est un processus qui implique la production de magma par fusion partielle de la croûte inférieure, la migration de ces magmas à travers la croûte et finalement son emplacement dans les niveaux superficielle de la croûte terrestre. Au cours de cette évolution, les processus de fusion partielle et de ségrégation sont des étapes indispensables à l'ascension des granites à travers la croûte. Les conditions physico-chimiques nécessaires à la fusion partielle et à l'extraction de ces liquides sont complexes. C'est pourquoi des études détaillées des processus de fusion partielle sont cruciales pour la compréhension de ces mécanismes fondamentaux responsables de la stratification chimique de la Terre. Parmi ces études, les observations de terrain apportent notamment des informations déterminantes qui peuvent être comparées aux données expérimentales. Le travail de recherche présenté dans ce mémoire de thèse associe études de terrain et données expérimentales sur la fusion partielle des roches pélitiques de haut degré métamorphiques provenant de l'auréole de contact de Little Cottonwood (Utah, USA). Les roches du métamorphisme de contact sont idéales pour l'étude de la folination de liquide de fusion. En effet, la durée relativement courte de ce type d'événement métamorphique prévient en grande partie la recristallisation qui perturbe les études de texture des roches dans la croûte inférieure. Le but de cette étude est de caractériser la génération des liquides de fusion, d'identifier les réactions responsables de la fusion de ces roches et de contraindre la formation de ces liquides et leur mécanisme de ségrégation et de migration. Parallèlement, des travaux expérimentaux ont été entrepris pour reproduire la fusion partielle de ces roches en laboratoire. Cette étude a été effectuée dans le but de confirmer la composition chimique des liquides, et de comparer les textures obtenues en l'absence de déformation. Les résultats montrent qu'un liquide de fusion pegmatoïde est produit par fusion partielle des roches pélitiques. La grande mobilité de ce liquide permet une infiltration pénétrative dans les quarzites. Ces infiltrations se manifestent par des grains de quartz arrondis entourés par une fine bordure de feldspath. L'utilisation de la tomography à rayons X a permis d'obtenir des images de ce réseau de liquide de fusion. L'infiltration de liquide de fusion entraîne un affaiblissement de la rhéologie de la roche ainsi qu'une décompaction des quartzites massifs. Une telle décompaction peut expliquer la découverte récente d'abondants xénocristaux dans beaucoup de magmas, puisque elle favorise l'isolation des minéraux. L'infiltration pénétrative est apparemment fortement influencée par la viscosité du fluide de fusion et le comportement de la tension superficielle entre les cristaux et le liquide, les deux étant dépendant du contenu en eau dans le liquide de fusion et de la température. Dans toutes les expériences, le premier liquide est produit sur les bordures de grains, principalement par les minéraux locaux. L'hétérogénéité à l'échelle des grains d'une roche en fusion conduit donc à un gradient de concentration chimique dans le liquide, qui sert de moteur à l'initiation de la migration du liquide. Des fines couches de liquide de fusion le long de bordures de grains formant un réseau enchevêtré s'établit immédiatement. Les hétérogénéités chimiques initiales dans le liquide s'estompent avec le temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de doctorat a pour objet central l'usage du thème de la liberté dans les fictions narratives de l'auteur hindi S.H. Vatsyayan 'Agyeya' (1911-­-1987), plus précisément dans ses romans et nouvelles appartenant aux années 1936-­-1961, encadrant donc le double évènement capital pour l'histoire de l'Inde de son indépendance et de sa partition en août 1947. En basant sa recherche sur la littérature fictionnelle écrite en hindi, son objectif est de contribuer de manière féconde et novatrice à la connaissance de l'Inde moderne dans ses développements littéraires et intellectuels. La thèse de ce travail postule qu'une étude de textes fictionnels centrée sur l'analyse sémantique de la notion de « liberté » fournit, grâce à la polysémie de cette dernière et à ses multiples lexicalisations hindi (azadi, chu?kara, mukti, svadhinata, svaraj, svatantrata, etc.), une clé d'interprétation privilégiée de l'oeuvre d'Agyeya en particulier et de l'Inde moderne en général. La recherche effectuée à cette fin a été guidée par l'hypothèse suivante, à savoir que les sources fictionnelles hindi représentent, par rapport aux sources argumentatives et normatives habituellement utilisées en sciences humaines et sociales, un apport précieux de données culturelles concrètes à l'étude de l'Asie du Sud. La principale conclusion de ce travail est que la polysémie de la notion de « liberté » permet comme nulle autre de mettre en évidence le caractère foncièrement interdépendant des diverses composantes du social, dans ses dimensions politique et économique, religieuse et spirituelle, juridique et sociale, ou encore culturelle et artistique. Un deuxième résultat marquant de cette étude est la mise en lumière de l'importance grandissante qu'occupe l'individu dans la société indienne moderne. L'ouvrage débute par un chapitre introductif sur la méthode d'analyse adoptée et les critères ayant présidé à la sélection de la période, du genre textuel et de l'auteur. Le deuxième chapitre est précisément consacré à l'auteur ainsi qu'à son contexte historique et linguistique. Prolongeant cette partie de contextualisation, le troisième chapitre se concentre sur la notion de « liberté » dans l'Inde moderne en se penchant notamment sur les usages de cette notion chez quelques-­- unes de ses figures intellectuelles majeures (Aurobindo, Gandhi, Ambedkar, M.N. Roy, etc.). L'analyse chronologique et l'interprétation du thème de la liberté dans les oeuvres d'Agyeya forment la partie centrale du travail (chapitre 4). Le chapitre cinq élargit l'analyse aux essais d'Agyeya et propose un retour comparatif sur les oeuvres de l'écrivain avec ce qu'il est dit de la liberté au XXe s. chez les intellectuels indiens. La conclusion inclut une réflexion sur l'apport potentiel de cette notion aux études en sciences humaines et sociales. L'ouvrage se termine par les annexes contenant mes traductions de quelques textes emblématiques du développement de l'oeuvre d'Agyeya et par les références bibliographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les mécanismes de régulation de la réabsorption fine du sodium dans la partie distale (tube distal et tube collecteur) du néphron ont un rôle essentiel dans le maintien de l'homéostasie de la composition ionique et du volume des fluides extracellulaires. Ces mécanismes permettent le maintien de la pression sanguine. Dans la cellule principale du tube collecteur cortical (CCD), le taux de réabsorption de sodium dépend essentiellement de l'activité du canal épithélial à sodium (ENaC) à la membrane apicale et de la pompe sodium-potassium-adénosine-triphosphatase (Na+-K±ATPase) à la membrane basolatérale. L'activité de ces deux molécules de transport est en partie régulée par des hormones dont l'aldostérone, la vasopressine et l'insuline. Dans les cellules principales de CCD, la vasopressine régule le transport de sodium en deux étapes : une étape précoce dite « non-génomique » et une étape tardive dite « génotnique ». Durant l'étape précoce, la vasopressine régule l'expression de gènes, dont certains peuvent être impliqués dans le transport de sodium, comme ENaC et la Na+ -K+ATP ase. Le but de mon travail a été d'étudier l'implication d'une protéine appelée VIP32 (vasopressin induced protein : VIP) dans le transport de sodium. L'expression de VIP32 est augmentée par la vasopressine dans les cellules principales de CCD. Dans l'ovocyte de Xenopus laevis utilisé comme système d'expression hétérologue, nous avons montré que l'expression de VIP32 provoque la maturation méiotique de l'ovocyte par l'activation de la voie des MAPK (mitogen-activated protein kinase : MAPK) et du facteur de promotion méiotique (MPF). La co-expression d'ENaC et de VIP32 diminue l'activité d'ENaC de façon sélective, par l'activation de la voie des MAPK, sans affecter l'expression du canal à la surface membranaire. Nous avons également montré que la régulation de l'activité d'ENaC par la voie des MAPK est dépendante du mécanisme de régulation d'ENaC lié à un motif du canal appelé PY. Ce motif est impliqué dans le contrôle de la probabilité d'ouverture ainsi que l'expression à la surface membranaire d'ENaC. Dans les cellules principales, VIP32 par l'activation de la voie des MAPK peut être impliqué dans la régulation négative du transport transépithélial qui a lieu après plusieurs heures de traitement à la vasopressine. Le tube collecteur de reins normaux présente un taux basal significatif d'activité de la voie MAPK MEK1/2-ERK1/2. Dans la lignée mpkCCDc14 de cellules principales de CCD de souris, que nous avons utilisé pour cette partie du travail, nous avons montré la présence d'un taux basal d'activité d'ERK1/2 (pERK1/2). L'aldostérone et la vasopressine, connus pour stimuler le courant sodique transépithélial dans le CCD, ne changeaient pas le taux basal de pERK1/2. Le transport de sodium transépithélial basal, ou stimulé par l'aldostérone ou la vasopressine est diminué par l'effet de PD98059, un inhibiteur de MEK1/2 qui diminue parallèlement le taux de pERK1/2. Nous avons également montré dans des cellules non stimulées, ou stimulées par de l'aldostérone ou de la vasopressine, que l'activité de la Na+-K+ ATPase, mais pas celle d'ENaC est inhibée par des traitements avec différents inhibiteurs de MEK1/2. Par un marquage de la Na±-K+ATPase à la surface membranaire nous avons montré que la voie d'ERK1/2 contrôle l'activité intrinsèque de la Na+-K+ ATPase, plutôt que son expression à la surface membranaire. Ces données ont montré que l'activité de la Na+-K+ATPase et le transport transépithélial de sodium sont contrôlés par l'activité basal et constitutive de la voie d'ERK1/2. Summary The regulation of sodium reabsorption in the distal nephron (distal tubule and cortical collecting duct) in the kidney plays an essential role in the control of extracellular fluids composition and volume, and thereby blood pressure. In the principal cell of the collecting duct (CCD), the level of sodium reabsorption mainlly depends on the activity of both epithlial sodium channel (ENaC) and sodium-potassium-adenosine-triphosphatase (Na+-K+ATPase). The activity of these two transporters is regulated by hormones especially aldosterone, vasopressin and insuline.In the principal cell of the CCD, vasopressin regulates sodium transport via a short-term effect and a late genomic effect. During the genomic effect vasopressin activates a complex network of vasopressin-dependent genes involved in the regulation of sodium transport as ENaC and Na+-K+ATPase. We were interested in the role of a recently identified vasopressin induced protein (VIP32) and its implication in the regulation of sodium transport in principal cell of the CCD. The Xenopus oocyte expression system revealed two functions : expressed alone VIP32 rapidly induces oocyte meiotic maturation through the activation of the mitogen-activated protein kinase (MAPK) pathway and the meiotic promoting factor and when co-expressed with ENaC, V1P32 selectively dowrn-egulates channel activity, but not channel cell surface expression. We have shown that the ENaC downregulation mediated by the activation of the MAPK pathway is related to the PY motif of ENaC. This motif is implicated in ENaC cell surface expression and open probability regulation. In the kidney principal cell, VIP32 through the activation of MAPK pathway may be involved in the downregulation of transepithelial sodium transport observed within a few hours after vasopressin treatment. The collecting duct of normal kidney exhibits significant activity of the MEK1/2-ERK1/2 MAPK pathway. Using in vitro cultured mpkCCDc14 principal cells we have shown a significant basal level of ERK1/2 activity (pERK1/2). Aldosterone and vasopressin, known to upregulate sodium reabsorption in CCDs, did not change ERK1/2 activity. Basal and aldosterone- or vasopressin-stimulated sodium transport were downregulated by the MEK1/2 inhibitor PD98059 in parallel with a decrease in pERK1/2 in vitro. The activity of Na+-K+ATPase but not that of ENaC was inhibited by MEK1/2 inhibitors in both, unstimulated and aldosterone- or vasopressin-stimulated CCDs in vitro. Cell surface labelling showed that intrinsic activity rather than cell surface expression of Na+-K+ATPase was controlled by pERK1/2. Our data demonstrate that basal constitutive activity of ERK1/2 pathway controls Na+-K+ATPase activity and transepithelial sodium transport in the principal cell. Résumé tout public Les mécanismes de régulation de la réabsorption fine du sodium dans la partie distale du néphron (l'unité fonctionnelle du rein) ont un rôle essentiel dans le maintien de l'homéostasie de la composition et du volume des fluides extracellulaires. Ces mécanismes permettent de maintenir une pression sanguine effective. Dans les cellules principales du tube collecteur, une région spécifique du néphron distal, le transport de sodium dépend essentiellement de l'activité de deux transporteurs de sodium : le canal épithélial à sodium (ENaC) et la pompe sodium-potassium-adénosine-triphosphatase (Na+-K+ATPase). Afin de répondre aux besoins de l'organisme, l'activité de ces deux molécules de transport est en partie régulée par des hormones dont l'aldostérone, la vasopressine et l'insuline. Dans les cellules principales du tube collecteur, la vasopressine régule le transport de sodium en deux étapes : une étape rapide et une étape lente dite « génomique ». Durant l'étape lente, la vasopressine régule l'expression de gènes pouvant être impliqués dans le transport de sodium, dont notamment ceux d'ENaC et de la Na+-K+ATPase. Parmi les gènes dont l'expression est augmentée par la vasopressine, celui de VIP32 (vasopressin induced protein : VIP) fait l'objet de cette étude. Le but de mon travail a été d'étudier, dans un système d'expression hétérologue (l'ovocyte de Xenopus leavis), l'implication de VIP32 dans le transport de sodium. Nous avons montré que VIP32 est capable d'activer un mécanisme moléculaire en cascade appelé MAPK (mitogen-activated protein kinase : MAPK) et est aussi capable de diminuer l'activité d'ENaC. Parallèlement, dans une lignée de cellules principales de tube collecteur les mpkCCDc14, nous avons montré que le taux basal d'activité de la cascade MAPK est capable de réguler l'activité de la Na+-K+ATPase, tandis qu'il n'influence pas l'activité d'ENaC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Rôle du transporteur de glucose GLUT2 dans les mécanismes centraux de glucodétection impliqués dans le contrôle de la sécrétion du glucagon et de la prise alimentaire. Les mécanismes centraux de glucodétection jouent un rôle majeur dans le contrôle de l'homéostasie glucidique. Ces senseurs régulent principalement la sécrétion des hormones contre-régulatrices, la prise alimentaire et la dépense énergétique. Cependant, la nature cellulaire et le fonctionnement moléculaire de ces mécanismes ne sont encore que partiellement élucidés. Dans cette étude, nous avons tout d'abord mis en évidence une suppression de la stimulation de la sécrétion du glucagon et de la prise alimentaire en réponse à une injection intracérébroventriculaire (i.c.v.) de 2-déoxy-D-glucose (2-DG) chez les souris de fond génétique mixte et déficientes pour le gène glut2 (souris RIPG1xglut2-/-). De plus, chez ces souris, l'injection de 2-DG n'augmente pas l'activation neuronale dans l'hypothalamus et le complexe vagal dorsal. Nous avons ensuite montré que la ré-expression de GLUT2 dans les neurones des souris RIPG1xg1ut2-/- ne restaure pas la sécrétion du glucagon et la prise alimentaire en réponse à une injection i.c.v. de 2-DG. En revanche, l'injection de 2-DG réalisée chez les souris RIPG1xg1ut2-/- ré-exprimant le GLUT2 dans leurs astrocytes, stimule la sécrétion du glucagon et l'activation neuronale dans le complexe vagal dorsal mais n'augmente pas la prise alimentaire ni l'activation neuronale dans l'hypothalamus. L'ensemble de ces résultats démontre l'existence de différents mécanismes centraux de glucodétection dépendants de GLUT2. Les mécanismes régulant la sécrétion du glucagon sont dépendants de GLUT2 astrocytaire et pourraient être localisés dans le complexe vagal dorsal. L'implication des astrocytes dans ces mécanismes suggère un couplage fonctionnel entre les astrocytes et les neurones adjacents « sensibles au glucose ». Lors de cette étude, nous avons remarqué chez les souris RIPG1xg1ut2-/- de fond génétique pur C57B1/6, que seul le déclenchement de la prise alimentaire en réponse à l'injection i.p. ou i.c.v. de 2-DG est aboli. Ces données mettent en évidence que suivant le fond génétique de la souris, les mécanismes centraux de glucodétection impliqués dans la régulation de la sécrétion peuvent être indépendants de GLUT2. Summary. Role of transporter GLUT2 in central glucose sensing involved in the control of glucagon secretion and food intake. Central glucose sensors play an important role in the control of glucose homeostasis. These sensors regulate general physiological functions, including food intake, energy expenditure and hormones secretion. So far the cellular and molecular basis of central glucose detection are poorly understood. Hypoglycemia, or cellular glucoprivation by intraperitoneal injection of 2-deoxy¬glucose (2-DG) injection, elicit multiple glucoregulatory responses, in particular glucagon secretion and stimulation of feeding. We previously demonstrated that the normal glucagon response to insulin-induced hypoglycemia was suppressed in mice lacking GLUT2. This indicated the existence of extra-pancreatic, GLUT2-dependent, glucose sensors controllling glucagon secretion. Here, we have demonstrated that the normal glucagon and food intake responses to central glucoprivation, by intracerebroventricular (i.c.v.) injections of 2-DG, were suppressed in mice lacking GLUT2 (RIPG1xglut2-/- mice) indicating that GLUT2 plays a role in central glucose sensing units controlling secretion of glucagon and food intake. Whereas it is etablished that glucose responsive neurons change their firing rate in response to variations of glucose concentrations, the exact mechanism of glucose detection is not established. In particular, it has been suggested that astrocytic cells may be the primary site of glucose detection and that a signal is subsequently transmitted to neurons. To evaluate the respective role of glial and neuronal expression of GLUT2 in central glucodetection, we studied hypoglycemic and glucoprivic responses following cellular glucoprivation in RIPG1xglut2-/- mice reexpressing the transgenic GLUT2 specifially in their astrocytes (pGFAPG2xRIPG1xglut2-/- mice) or their neurons (pSynG2xRIPG1xglut2-/- mice). The increase of food intake after i.p. injection of 2-DG in control mice was not observed in the pGFAPG2xRIPG1xglut2-/- mice. Whereas a strong increase of glucagon secretion was observed in control and pGFAPG2xRIPG1xglut2-/- mice, not glucagonemic response was induced in pSynG2xRIPG1xglut2-/- mice. Our results show that GLUT2 reexpression in glial cells but not in neurons restored glucagon secretion and thus present a strong evidence that glucose detection and the control of glucagon secretion require a coupling between glial cells and neurons. Furthermore, these results show the existence of differents glucose sensors in CNS. Résumé tout public. Rôle du transporteur de glucose GLUT2 dans les mécanismes centraux de glucodétection impliqués dans le contrôle de la sécrétion du glucagon et de la prise alimentaire. Chez les mammifères, en dépit des grandes variations dans l'apport et l'utilisation du glucose, la glycémie est maintenue à une valeur relativement constante d'environ 1 g/l. Cette régulation est principalement sous le contrôle de deux hormones produites par le pancréas l'insuline et le glucagon. A la suite d'un repas, la détection de l'élévation de la glycémie par le pancréas permet la libération pancréatique de l'insuline dans le sang. Cette hormone va alors permettre le stockage dans le foie du glucose sanguin en excès et diminuer ainsi la glycémie. Sans insuline, le glucose s'accumule dans le sang. On parle alors d'hyperglycémie chronique. Cette situation est caractéristique du diabète et augmente les risques de maladies cardiovasculaires. A l'inverse, lors d'un jeûne, la détection de la diminution de la glycémie par le cerveau permet le déclenchement de la prise alimentaire et stimule la sécrétion de glucagon par le pancréas. Le glucagon va alors permettre la libération dans le sang du glucose stocké par le foie. Les effets du glucagon et de la prise de nourriture augmentent ainsi les concentrations sanguines de glucose pour empêcher une diminution trop importante de la glycémie. Une hypoglycémie sévère peut entraîner un mauvais fonctionnement du cerveau allant jusqu'à des lésions cérébrales. Contrairement aux mécanismes pancréatiques de détection du glucose, les mécanismes de glucodétection du cerveau ne sont encore que partiellement élucidés. Dans le laboratoire, nous avons observé, chez les souris transgéniques n'exprimant plus le transporteur de glucose GLUT2, une suppression de la stimulation de la sécrétion du glucagon et du déclenchement de la prise alimentaire en réponse à une hypoglycémie, induite uniquement dans le cerveau. Dans le cerveau, le GLUT2 est principalement exprimé par les astrocytes, cellules gliales connues pour soutenir, nourrir et protéger les neurones. Nous avons alors ré-exprimé spécifiquement le GLUT2 dans les astrocytes des souris transgéniques et nous avons observé que seule la stimulation de la sécrétion du glucagon en réponse à l'hypoglycémie est restaurée. Ces résultats mettent en évidence que la sécrétion du glucagon et la prise alimentaire sont contrôlées par différents mécanismes centraux de glucodétection dépendants de GLUT2.