432 resultados para raison systémique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte¦Le VIH reste une des préoccupations majeures de santé publique dans le monde. Le nombre de patients infectés en Europe continue de croître et s'élève, en 2008, à 2.3 millions (1). De plus, environ 30 % des personnes séropositives ignorent leur statut et, de ce fait, contribuent à la propagation de l'épidémie. Ces patients sont responsables de la moitié des nouveaux cas du VIH (2) ; ils transmettent, en effet, 3.5 fois plus l'infection que les patients dont le diagnostic est connu (3).¦Aux USA, en raison de l'épidémiologie actuelle du VIH, les Centers for Disease Control and Prevention (CDC) ont, en septembre 2006, mis le point sur la nécessité d'étendre drastiquement les tests et, de ce fait, ont publié de nouvelles recommandations. Non seulement, le test devra dépasser les groupes à risque dans les zones à grande prévalence mais aussi, être répandu à toute la population adulte de 13 à 64 ans sauf si la prévalence du VIH est en dessous de 0.1 % (4). Cette démarche est appelée routine opt-out HIV screening et plusieurs arguments parlent en faveur d'un dépistage systématique. Cette maladie rempli tout d'abord les 4 critères pour l'introduction d'un dépistage systématique : une maladie grave pouvant être mise en évidence avant l'apparition des symptômes, son diagnostic améliore la survie par une progression moins rapide et diminution de la mortalité, des tests de dépistage sensibles et spécifiques sont disponibles et les coûts sont moindres en comparaison aux bénéfices (5). Aux USA, 73 % des patients diagnostiqués à un stade avancé de l'infection VIH entre 2001 et 2005 avaient eu recours à l'utilisation des systèmes de soins au moins une fois dans les 8 ans précédant le diagnostic (6). Ces occasions manquées font aussi partie des arguments en faveur d'un dépistage systématique. En règle générale, le médecin se basant uniquement sur les symptômes et signes, ainsi que sur l'anamnèse sexuelle sous-estime la population à tester. Ce problème de sélection des candidats n'a plus lieu d'être lors d'un tel screening. Après cette publication des recommandations du CDC, qui introduit le dépistage systématique, il a été constaté que seulement 1/3 du personnel soignant interrogé connaissait les nouvelles directives et seulement 20 % offrait un dépistage de routine à tous les patients concernés (7). Cette étude nous montre alors qu'il est impératif de vérifier le niveau de connaissances des médecins après la publication de nouvelles recommandations.¦Devant le problème de l'épidémie du VIH, la Suisse opte pour une stratégie différente à celle des Etats-Unis. La Commission d'experts clinique et thérapie VIH et SIDA (CCT) de l'OFSP a tout d'abord publié, en 2007, des recommandations destinées à diminuer le nombre d'infections VIH non diagnostiquées, grâce à un dépistage initié par le médecin (8). Cette approche, appelée provider initiated counselling and testing (PICT), complétait alors celle du voluntary counselling and testing (VCT) qui préconisait un dépistage sur la demande du patient. Malheureusement, le taux d'infections diagnostiquées à un stade avancé a stagné aux environs de 30 % jusqu'en 2008 (9), raison pour laquelle l'OFSP apporte, en 2010, des modifications du PICT. Ces modifications exposent différentes situations où le test du VIH devrait être envisagé et apportent des précisions quant à la manière de le proposer. En effet, lors d'une suspicion de primo-infection, le médecin doit expliquer au patient qu'un dépistage du VIH est indiqué, un entretien conseil est réalisé avec des informations concernant la contagiosité élevée du virus à ce stade de l'infection. Si le patient présente un tableau clinique qui s'inscrit dans le diagnostic différentiel d'une infection VIH, le médecin propose le test de manière systématique. Il doit alors informer le patient qu'un tel test sera effectué dans le cadre d'une démarche diagnostique, sauf si celui-ci s'y oppose. Enfin, dans d'autres situations telles que sur la demande du patient ou si celui-ci fait partie d'un groupe de population à grande prévalence d'infection VIH, le médecin procède à une anamnèse sexuelle, suivie d'un entretien conseil et du test si l'accord explicite du patient a été obtenu (10).¦Nous pouvons donc constater les différentes stratégies face à l'épidémie du VIH entre les USA et la Suisse. Il est nécessaire d'évaluer les conséquences de ces applications afin d'adopter la conduite la plus efficace en terme de dépistage, pour amener à une diminution des transmissions, une baisse de la morbidité et mortalité. Aux USA, des études ont été faites afin d'évaluer l'impact de l'approche opt-out qui montrent que le screening augmente la probabilité d'être diagnostiqué (11). En revanche, en Suisse, aucune étude de ce type n'a été entreprise à l'heure actuelle. Nous savons également qu'il existe un hiatus entre la publication de nouvelles recommandations et l'application de celles-ci en pratique. Le 1er obstacle à la mise en oeuvre des guidelines étant leur méconnaissance (12), il est alors pertinent de tester les connaissances des médecins des urgences d'Hôpitaux de Suisse au sujet des nouvelles recommandations sur le dépistage du VIH de l'OFSP de mars 2010.¦Objectifs¦Montrer que les recommandations de l'OFSP de mars 2010 ne sont pas connues des médecins suisses.¦Méthodes¦Nous testerons la connaissance des médecins concernant ces recommandations via un questionnaire qui sera distribué lors d'un colloque organisé à cet effet avec tous les médecins du service des urgences d'un même établissement. Il n'y aura qu'une séance afin d'éviter d'éventuels biais (transmission d'informations d'un groupe à un autre). Ils recevront tout d'abord une lettre informative, accompagnée d'un formulaire de consentement pour l'utilisation des données de manière anonyme. La feuille d'information est rédigée de façon à ne pas influencer les candidats pour les réponses aux questions. Le questionnaire comprend deux parties, une première qui comprend divers cas cliniques. Les candidats devront dire si ces situations se trouvent, selon eux, dans les nouvelles recommandations de l'OFSP en termes de dépistage du VIH et indiquer la probabilité d'effectuer le test en pratique. La deuxième partie interrogera sur la manière de proposer le test au patient. La durée nécessaire pour remplir le questionnaire est estimée à 15 minutes.¦Le questionnaire élaboré avec la collaboration de Mme Dubois de l'UMSP à Lausanne et vont être testés par une vingtaine de médecins de premier recours de Vidy Med et Vidy Source, deux centres d'urgences lausannois.¦Réstulats escomptés¦Les médecins suisse ne sont pas au courant des nouvelles recommandations concernant le dépistage du VIH.¦Plus-value escomptée¦Après le passage du questionnaire, nous ferons une succincte présentation afin d'informer les médecins au sujet de ces recommandations. Aussi, l'analyse des résultats du questionnaire nous permettra d'agir au bon niveau pour que les nouvelles recommandations de l'OFSP de mars 2010 soient connues et appliquées, tout en ayant comme objectif l'amélioration du dépistage du VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thrombocytopénie immune primaire (ITP) est une affection auto-immune acquise avec diminution de la survie des plaquettes et perturbation de la production plaquettaire. Il n'existe aucun test clinique simple permettant de prouver la nature auto-immune de l'affection. Pour cette raison, il s'agit presque toujours d'un diagnostic par exclusion d'autres causes. Bien que les plaquettes soient souvent inférieures à 10 x 109/l lors de la présentation initiale, la tendance hémorragique est étonnamment modérée chez la majorité des patients. Le traitement initial fait toujours appel aux corticostéroïdes, combinés à des immunoglobulines intraveineuses et à des transfusions de plaquettes dans les formes compliquées avec hémorragies significatives. Chez l'enfant, la maladie est souvent induite par des infections virales et son évolution est bénigne et spontanément régressive dans la majorité des cas. Chez l'adulte, la maladie est plus souvent persistante ou chroniquement récidivante, et le taux de plaquettes se situe souvent à un taux suffisant pour prévenir des hémorragies spontanées. Seule une faible proportion de patients souffre d'une thrombocytopénie sévère prolongée accompagnée de saignements réguliers avec risque d'hémorragies potentiellement fatales. C'est probablement ce groupe de patients restreint qui tirera surtout profit des nouvelles options thérapeutiques telles que les agonistes du récepteur de la thrombopoïétine. A la lumière de ces nouvelles possibilités, un groupe d'hématologues suisses s'est réuni pour élaborer des directives concernant la prise en charge de l'ITP conformément aux besoins et aux habitudes de notre pays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La diminution de la fraction d'éjection après infarctus du myocarde est-elle suffisante pour justifier l'implantation prophylactique de défibrillateur ? Introduction: La diminution de la fraction d'éjection (FE) est un facteur prédictif majeur de mortalité cardiaque chez les patients avec ancien infarctus du myocarde (IM). Les plus récentes études, pour la plupart conduites à la fin des années 90, montrent une diminution de la mortalité post-hospitalière à 10 à 20% par année. Une amélioration de la survie par implantation prophylactique de défibrillateurs a été démontrée chez les patients avec dysfonction myocardique avancée après ancien IM dans la cadre de l'étude MADIT II (Multicenter Automatic Defibrillator Implantation Trial) et est depuis lors, considérée comme une thérapie recommandée. Le bénéfice de l'implantation prophylactique de défibrillateurs en terme de nombre nécessaire de patients à traiter pour prévenir un évènement est d'un intérêt primordial en raison des complications potentielles liées à la procédure et l'appareillage, des implications psychologiques ainsi qu'en raison de l'analyse coût-efficacité. Le nombre de patients à traiter est corrélé au risque actuel de mortalité rythmique, probablement influencé par les récentes avancées thérapeutiques dans la prise en charge aigue de l'IM (notamment par angioplastie primaire) et de l'insuffisance cardiaque. Or, dans '' l'étude MADIT II, le recrutement des patients était effectué entre 1997 et 2001 et l'intervalle moyen entre l'IM et le recrutement était de plus de 6 ans. Le but de l'étude était donc d'évaluer, dans la pratique générale, la mortalité actuelle de patients ayant survécu à un IM avec diminution consécutive significative de la FE. La stratification du risque sur la base des variables hospitalières a de même été explorée. Méthode: Une analyse de cohorte de patients avec infarctus aigu du myocarde admis de 1999 à 2000 a été effectuée dans 2 centres hospitaliers (un universitaire et un cantonal). Tous les dossiers cliniques des patients sortis d'hôpital avec FE documentée ≤ 0.40 ont été inclus. Les caractéristiques des patients, les procédures diagnostiques et thérapeutiques ainsi que la médication étaient reportées. La période de suivi débutait à la sortie d'hôpital. Les end-points primaires étaient la mortalité globale, la mortalité cardiaque et les morts subites. Une analyse bivariée et multivariée a été effectuée. Résultats: 165 patients ont été inclus. Durant un suivi médian de 30 mois (interquartile range 22-36), 18 patients sont décédés (5 morts classifiées comme cardiaques, 8 comme subites, 5 de causes non cardiaques). Les taux de mortalité à un et deux ans selon analyse de Kaplan-Meier étaient de 6.7 et 8.6%, respectivement. Les variables reflétant l'atteinte coronarienne et sa prise en charge (antécédent d'IM, reperfusion aigue, revascularisation complète) étaient plus significativement associées à la mortalité comparées aux variables reflétant la dysfonction myocardique (FE, classe Killip à l'admission). Conclusion : La mortalité des patients ayant survécu à un IM avec dysfonction myocardique avancée a diminué de façon substantielle depuis la fin des années 90. La diminution de la mortalité rythmique implique une augmentation proportionnelle du nombre de patients à traiter par implantation de défibrillateur pour prévenir un évènement. Par ailleurs, une stratification du risque après IM basée uniquement sur la FE semble être inappropriée au vu de son impact mineur sur la mortalité comparé aux autres facteurs de risque identifiés dans notre étude. Les patients sans antécédents d'infarctus et ceux ayant bénéficié d'une revascularisation aigue ou complète avait une mortalité cumulée à 2 ans de, respectivement, 2.5%, 3.9% et 2.3%. Pour ce type de patients à bas risque le bénéfice de l'implantation prophylactique de défibrillateur doit être remis en question. Au vu de cette étude, une stratification additionnelle du risque avant implantation de défibrillateur est à considérer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction.- La bérylliose chronique est une granulomatose pulmonaire pour laquelle le diagnostic est rarement posé en raison d'une méconnaissance du risque d'exposition professionnelle au béryllium.En outre, le tableau clinique, les signes radiologiques et les symptômes ressemblent a` une sarcoïdose. Ainsi, la fréquence de la maladie est probablement sous-estimée malgré l'utilisation de béryllium dans la fabrication de nombreux produits industriels et techniques en Suisse, tels que ressorts, prothèses dentaires, micro-électronique... Comme aide au diagnostic, un test de prolifération lymphocytaire au béryllium (BeLPT) a été développé pour évaluer la réponse immunocellulaire spécifique au béryllium. Mais celui-ci présente des inconvénients : utilisation de produits radioactifs, variabilité interlaboratoire importante, valeur prédictive contesteé. L'utilisation de l'Elispot, évaluant également la réponse lymphocytaire pourrait être une alternative au BeLPT. Objectifs.- Les objectifs de l'étude sont, d'une part, de déceler parmi les cas de sarcoïdose du registre SIOLD (Swiss Group for Interstitial and Orphan Lung Diseases) des cas de bérylliose sous-diagnostiqués et, d'autre part, d'améliorer les tests de de´pistage (questionnaire et test immunologique) de sensibilisation et de diagnostic. Méthode.- Cent soixante autoquestionnaires évaluant l'exposition professionnelle au béryllium ont été adressés à des patients référencés dans le registre SIOLD, souffrant de sarcoïdose. Les patients relatant dans l'autoquestionnaire un contact professionnel avec le béryllium ont bénéficié d'une visite médicale à l'Institut universitaire romand de santé au travail (IST) comportant une anamnèse professionnelle, un questionnaire spécifique à l'exposition au béryllium (questionnaire de Cherry) et une prise de sang. Par la suite, le sang a été analysé par Elispot pour évaluer la possibilité d'une sensibilisation au béryllium. En parallèle, des patients déjà diagnostiqués pour une bérylliose par un BeLPT ont servi de cas contrôle positifs pour la mise en place du test. Résultats.- Cinquante pour cents des autoquestionnaires adressés aux patients du registre SIOLD ont été renvoyés. Parmi ceux-ci, 33 %(26 personnes) rapportaient une exposition professionnelle possible au béryllium et ont été reçus a` l'IST pour compléter l'anamnèse professionnelle et répondre au questionnaire adapté de Cherry. Il ressort de ce questionnaire que 3 personnes ont effectivement travaillé avec du béryllium au cours de leur carrière professionnelle et que 4 ont potentiellement été exposées dans le contexte de leur environnement professionnel. Tous les patients ont été testés par Elispot, mais aucun n'a montré de prolifération évoquant une sensibilisation au béryllium. Des résultats supplémentaires devraient être disponibles dès février. Conclusion.- Au vu de ces résultats où seules 7 personnes sur les 80 ayant répondu au questionnaire (8 %) sont suspectées d'avoir été exposées directement ou indirectement au béryllium au cours de leur activité professionnelle, il est possible que le risque d'exposition au béryllium soit anecdotique, malgré une utilisation importante de ce métal dans certaines régions de Suisse. Une hypothèse envisageable est que la population de l'étude ne soit pas représentative de la population exposée. En outre, le fait que les tests lymphocytaires effectués sur les 7 personnes ayant rapporté une exposition au béryllium soient revenus négatifs peut être expliqué de 2 manières : soit que chez ces personnes, la maladie pulmonaire n'est pas due au béryllium, même si l'anamnèse professionnelle est positive et qu'il s'agit bien d'une sarcoïdose, soit que la prise de corticoïdes modifie la réponse immunitaire, soit que le test n'est pas suffisamment sensible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Introduction Cette étude est une analyse rétrospective des complications urétérales et de leurs prises en charge à partir d'une série monocentrique de 277 transplantations rénales consécutives. Matériel et méthode De septembre 1979 à juin 1999, 277 transplantations rénales (origine cadavérique) ont été pratiquées chez 241 patients. L'uretère provenant de la greffe rénale a été inséré dans la vessie selon la technique d'implantation extravésicale décrite par Lich-Gregoir et Campos-Freire. L'étude a analysé la date de survenue et le genre de complications observés. Les différentes procédures pour restaurer le tractus urinaire transplanté sont présentées dans cette étude. Résultats Des complications sont survenues chez 43/277 transplantations rénales (15,5%). Les fuites urinaires sur l'anastomose ou les sténoses urétérales étaient les plus fréquentes. La date de survenue de ces complications étaient soit précoce (< 1 mois) soit tardive (> 1 mois) dans un nombre similaire de cas. La plupart des cas ont été pris en charge chirurgicalement 33/43 cas (76,7%). La réparation chirurgicale la plus fréquente a été la réimplantation urétérovésicale (n-13), suivie par : l'anastomose urétérourétérale termino-terminale (uretère natif-uretère greffé, n-5) ; l'anastomose pyélourétérale (uretère natif-bassinet rénal greffé, n=5) ; la simple révision de l'implantation urétérovésicale (n=4) ; la résection et l'anastomose termino-terminale de l'uretère greffé (n=2) ; la calico-vésicostomie (vessie greffée, n=1) ; l'implantation selon Boari (n=1) ; la pyélovésicostomie avec bipartition de la vessie (n-1), et la pyéloiléocystoplastie avec greffe iléale détubularisée (n=1). Aucun décès en relation avec les complications urologiques n'a été rapporté. Cependant, 2 reflux vésico-rénaux consécutifs ont conduit à distance à la perte du greffon. Conclusion Le taux de complications constaté dans cette analyse rétrospective est similaire à celui observé dans d'autres études. Il se situe entre 2 et 20%. Si l'implantation urétérovésicale extravésicale classique reste une technique attractive en raison de sa simplicité, l'équipe chirurgicale dans un centre de formation doit rester attentive à toute mesure de prévention des complications urétérales, comme le choix d'une autre technique d'implantation de l'uretère et/ou de l'insertion transitoire d'un stent urétéral. Abstract Introduction: This study is a retrospective analysis of ureteral complications and their management from a monocenter series of 277 consecutive renal transplantations. Materials and Methods: From September 1979 to June 1999, 277 renal transplantations (cadaveric origin) were performed in 241 patients. The ureter from the kidney graft was inserted into the bladder according to the technique of extravesical implantation described by Lich-Gregoir and Campos-Freire. The study analyzed the time of occurrence and the type of complications observed. The different procedures to restore the transplanted urinary tract are presented. Results: Complications occurred in 431277 renal transplantations (15.5%). Anastomotic urine leakage or ureteral stricture were the most frequent. The time to appearance of these complications was either short (<1 month) or late (>1 month) in a similar number of cases. Most cases were managed surgically: 33/43 cases (76.7%). The most frequent surgi cal repair was ureterovesical reimplantation n =13), Followed by: ureteroureteral end, to end anastomosis (native ureter-ureter transplant, n =, 5); pyeloureteral anastomosis (native ureter-renal pelvis transplant n = 5): simple revision of ureterovesical implantation (n=4): resection and end-to end anastomosis of the transplant ureter (n=2); calico-vesicostomy graft-bladder, n = 1); implantation according to Boari (n= 1); pyelovesicostomy with bipartition of bladder (n = 1), and pyeloileocystoplasty with detubularized ileal graft (n=1). No deaths related to any of the urological complications were reported However, 2 consecutive vesico-renal refluxes led to the loss of the kidney graft in the long-term. Conclusion: The rate of complications observed in this retrospective analysis is similar to the experience of other studies, ranging from 2 to 20% If the classical extravesical ureteral bladder implantation is to remain an attractive technique due to its simplicity, the surgical team at the training center should be aware of all the means to prevent any ureteral complications, such as the choice of another implantation technique and/or insertion of a transient ureteral stent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMELes troubles des conduites alimentaires atypiques (TCAA) représentent une catégorie diagnostique émergente, relativement peu décrite. Ils regroupent des tableaux cliniques ne satisfaisant pas entièrement aux critères des troubles alimentaires typiques anorexie et boulimie. Désignés par le terme de EDNOS' dans le DSM-IV2 (American Psychiatrie Association, 1994), ils sont appelés troubles atypiques dans la CIM-103 (World Health Organization, 1993).Les TCAA représentent la majorité des demandes dans les consultations pour troubles alimentaires, concernent une grande proportion de la population non-consultante et constituent un enjeu de santé publique prioritaire.Cette étude se penche sur le parcours de 24 jeunes filles présentant de tels troubles, qui ont été suivies dans le cadre d'un groupe thérapeutique à l'UMSA (Unité Multidisciplinaire de Santé des Adolescents, CHUV, Lausanne). Elle a pour but de mieux connaître ces troubles alimentaires atypiques.Deux axes de questions de recherche organisent ce travail: le premier, orienté autour du trouble alimentaire atypique, de sa définition (avec les questions de classification diagnostique) et de son évolution (avec les questions de passages d'une catégorie à une autre), le second autour du groupe thérapeutique, de son utilité et de ses indications.1. Résultats cliniquesLes résultats de l'analyse thématique décrivent un trouble important, qui induit une souffrance plus intense que ne tendraient à le laisser penser la relative banalité de la présentation clinique en comparaison des troubles typiques ainsi que la catégorisation en tant que troubles résiduels. Des moyens compensatoires -qui visent au maintien d'un poids stable en dépit des crises alimentaires ainsi qu'à la perte de poids, soit par des méthodes non-purgatives (restrictions massives, diètes, jeûnes, pratique du sport à outrance), soit par des méthodes purgatives (vomissements auto-induits, usage de laxatifs, diurétiques) - sont présents chez 15 participantes, sous forme de vomissements chez 6 d'entre elles. Seize participantes ont présenté des troubles des menstruations. Des difficultés de la lignée anxio-dépressive sont relevées chez la moitié des participantes, alliées à un perfectionnisme important. L'estime de soi apparaît globalement basse, excessivement influencée par l'insatisfaction attachée au poids et aux formes corporelles. L'analyse fait clairement apparaître le lien complexe unissant les attitudes face à l'alimentation et le désir de maigrir aux crises de frénésie alimentaire. Les crises permettent aux patientes de moduler leurs émotions, tant .positives que négatives. Le vécu de la maladie et des préoccupations pour le corps et l'alimentation semble généralisable. et «transcatégorique», bien que les troubles alimentaires de l'ordre de l'anorexie atypique restrictive, du fait de l'absence de crises de frénésie, semblent appartenir à un registre différent des troubles avec perte de contrôle sur l'alimentation et crises, notamment en termes d'implications dans la vie quotidienne.Lorsque les participantes sont revues (au minimum un an après la sortie du groupe thérapeutique), 15 d'entre elles sont indemnes de tout symptôme, 5 présentent encore un TCAA type boulimie atypique, et 4 ont parfois des crises résiduelles. Des préoccupations pour l'alimentation et le poids subsistent. Le pronostic d'évolution n'apparaît lié ni à la durée de participation au groupe, ni uniquement à la catégorie diagnostique ou aux seuls éléments de co-morbidité, mais davantage à un investissement rapidement positif du groupe, ainsi qu'à la qualité des prises en charge parallèles en présence d'éléments de co-morbidité importants ou d'antécédents d'autres troubles alimentaires.Notre collectif atteste de passages d'une catégorie de trouble à une autre (anorexie puis boulimie, comme décrit dans la littérature) et de changements d'intensité (trouble typique puis atypique) au cours de la maladie, confirmant un continuum possible, tant entre les troubles typiques, qu'entre les troubles typiques et atypiques. Néanmoins, la multiplicité des parcours possibles dans la maladie, ainsi que l'existence de formes stables, sans passages d'une catégorie à une autre, incite à la prudence et ne permet pas de confirmer en tout point l'hypothèse de la nature dimensionnelle (même nature, intensité différente) des troubles alimentaires.Le trouble atypique représente parfois une étape dans l'évolution à partir d'un trouble typique, pouvant être envisagé comme moment sur le chemin de la guérison, ce qui pose la question des critères de guérison.2. Nature des troubles alimentaires atypiquesDu collectif émergent 4 catégories diagnostiques de troubles alimentaires atypiques: hyperphagie boulimique, boulimie atypique non-purgative, boulimie atypique purgative et anorexie atypique restrictive. Le tableau clinique.de l'hyperphagie boulimique comporte des crises de boulimie, mais peu de préoccupations concernant le poids et les formes corporelles en compá= raison des 3 autres catégories, et pas de moyens de compensation des crises, ce qui induit fréquemment un surpoids voire une obésité pour les patientes concernées. Les moyens de compensation des crises de boulimie demeurent non-purgatives (jeûne, sport) dans la boulimie atypique non-purgative, alors que vomissements et usage de laxatifs suite aux crises caractérisent la boulimie atypique purgative. Le tableau clinique de l'anorexie atypique restrictive ne présente ni crises de boulimie ni moyens de compensation purgatifs type vomissements. Ces catégories sont retrouvées dans la littérature.Nos résultats rejoignent la littérature actuelle qui envisage la nécessité d'une reclassification des troubles alimentaires en vue du DSM-V. Dans l'intervalle, adopter la classification de la CIM et parler d'anorexie atypique, de -type restrictif ou avec crises, de boulimie atypique, purgative ou non, et y ajouter l'hyperphagie boulimique, rendrait mieux compte de la réalité clinique des troubles alimentaires atypiques que ne le fait la classe des EDNOS du DSM, peu différenciée, mêlant des tableaux très divers et au final insatisfaisante.3. Utilité et indication du groupeLe groupe recèle un fort pouvoir thérapeutique pour les patientes qui s'y impliquent. L'étayage sur les autres émerge comme facteur thérapeutique principal, ainsi que le décrit la littérature. Cette prise en charge thérapeutique convient particulièrement à des patientes présentant un trouble alimentaire sur le versant boulimique, comprenant l'hyperphagie boulimique, la boulimie atypique, purgative ou non, ainsi que certaines boulimies de moyenne gravité. Les patientes du collectif qui présentent des difficultés de l'ordre de l'anorexie atypique restrictive bénéficient moins du groupe que les participantes qui expérimentent des pertes de contrôle sur la nourriture.4. ImplicationsL'intensité de la souffrance, la complexité des tableaux symptomatiques, la diversité des parcours et les multiples répercussions sur la vie sociale démontrent l'importance de repérer et prendre en charge ces troubles alimentaires qui demeurent souvent banalisés. Dans cette perspective, la formation au dépistage, à l'évaluation et à la prise en charge des divers intervenants confrontés à ces troubles représente un enjeu majeur. .Enfin, dénoncer les pressions socioculturelles à la minceur et le dictat des régimes, promouvoir une notion de bien-être et une bonne estime de soi qui ne soient pas liées à l'apparence contribuera à prévenir les troubles alimentaires atypiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les risques encourus par l'usage des produits dopants soient bien documentés, certains adeptes des salles de musculation en consomment abondamment. Ces comportements interpellent et laissent perplexe. Un sentiment d'incompréhension à l'égard de ces pratiques est parfois associé à des jugements négatifs. Les forçats des salles de musculation sont alors considérés comme des individus dénués de raison, voire comme des cas quasi pathologiques. Au-delà des nombreux clichés associés aux bodybuilders, cet article propose de mieux comprendre leurs conduites à risque. Les observations suggèrent que la progressive normalisation des consommations pharmacologiques s'opère par les processus de socialisation et d'acculturation à la pratique, en particulier par : le sentiment de devenir expert, une délégation du risque à des personnes de confiance, une banalisation de la prise de produits dans tous les sports et la dénonciation de ceux qui prennent des risques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un travail consacré à la sculpture d'ornement implique de s'intéresser à un corps de métier qui n'a guère laissé de trace dans l'historiographie, les sculpteurs d'ornement. A Genève, un seul représentant de cette spécialité est passé à la postérité : Jean Jaquet (1754-1839). L'activité de celui-ci, couvrant les dernières décennies du XVIIIe et les premières années du XIXe siècle, apparaît par conséquent comme un moment de perfection de la sculpture d'ornement dans l'histoire de la République. Comment Jaquet, ce simple entrepreneur en décoration, est-il parvenu à acquérir une forme de notoriété et à entrer dans l'histoire de l'art genevoise ? En quoi son parcours professionnel se distingue-t-il de celui des autres sculpteurs d'ornement actifs à Genève au XVIIIe siècle, ses émules obscurs ? Afin de discuter ces questions, j'ai procédé en trois temps.D'abord, il a fallu se donner les moyens de connaître l'arrière-plan socio-professionnel. Un important travail de dépouillement de sources notamment des registres des permissions de séjour accordées par la Chambre des Etrangers - a permis de se faire une idée des rouages de l'entreprise de décoration, de l'activité des ateliers et de leur succession dans le temps. L'étude de la production reste néanmoins problématique. Le corpus de décorations conservées du XVIIIe siècle est en effet mal identifié et l'absence de documentation historique rend périlleuse toute tentative de classement par ateliers ou par tranches chronologiques. En raison de ces lacunes, il n'a pas paru opportun de chercher à présenter une vision globale de la décoration intérieures au XVIIIe siècle à Genève, ni de proposer une nouvelle carte des attributions. La deuxième partie de la thèse suit par conséquent un principe simple. En raison de l'omniprésence de Jaquet dans l'historiographie, elle analyse la manière dont le corpus de ses oeuvres a été constitué au fil des XIXe et XXe siècle. En d'autres termes, elle vise à déconstruire les mécanismes de l'attribution et à interroger la pertinence de ses critères. Une telle démarche permet de redessiner les contours de la production de décoration à Genève et d'en saisir les enjeux. Les ateliers ont-ils chacun leur manière propre - leur style propre ? Celui-ci se fonde-t-il sur l'expression d'une personnalité artistique autonome ? Ou leur production est-elle avant tout déterminée par une demande sociale stéréotypée, fondée sur la reproduction de modèles convenus ? Sans minimiser l'importance de Jaquet dans la décoration genevoise du XVIIIe siècle, ni la qualité de son travail, la deuxième partie de ce travail vise à révéler certaines faiblesses dans le système des attributions. Indirectement, cela permet de se faire une idée de l'apport d'autres entrepreneurs en ornement.Les deux premières parties posent les bases d'un discours critique sur les producteurs et leurs oeuvres. La troisième analyse, du XIXe au XXIe siècle, les modalités de la promotion et de la réception de Jaquet, en d'autres termes la construction de son image. Grâce à son ambition, le sculpteur s'est hissé au-dessus de sa condition. Parmi les entrepreneurs en décoration actifs à Genève, il est en effet le seul à avoir séjourné à l'étranger, fréquenté les académies, enseigné le dessin et fait quelques incursions dans le domaine de la sculpture figuriste. Par conséquent, il est aussi le seul à avoir une place dans l'histoire des Beaux-Arts, puis, à partir de la fin du XIXe siècle, dans celle des Arts décoratifs à Genève. Ni artiste de talent universel, ni ouvrier, Jaquet est un représentant de première qualité d'une catégorie professionnelle particulière, composée d'individus auxquels les historiens de l'art ne portent qu'un intérêt limité, parce qu'ils sont à la charnière des arts mécaniques et des arts libéraux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractCancer treatment has shifted from cytotoxic and nonspecific chemotherapy to chronic treatment with targeted molecular therapies. These new classes of drugs directed against cancer-specific molecules and signaling pathways, act at a particular level of the tumor cell development. However, in both types of therapeutic approaches (standard cytotoxic chemotherapy and targeted signal transduction inhibitions), toxicity and side effects can occur. The aim of this thesis was to investigate various approaches to improve the activity and tolerability of cancer treatment, in a clinical setting, a) by molecular targeting through the use of tyrosine kinase inhibitors (TKIs), whose dosage can be adapted to each patient according to plasma levels, and, b) in a preclinical model, by tissue targeting with locoregional administration of cytotoxic chemotherapy to increase drug exposure in the target tissue while reducing systemic toxicity of the treatment.A comprehensive program for the Therapeutic Drug Monitoring (TDM) of the new class of targeted anticancer drugs of TKIs in patient's blood has been therefore initiated comprising the setting up, validation and clinical application of a multiplex assay by liquid chromatography coupled to tandem mass spectrometry of TKIs in plasma from cancer patients. Information on drugs exposure may be clinically useful for an optimal follow-up of patients' anticancer treatment, especially in case of less than optimal clinical response, occurrence of adverse drug reaction effects and the numerous risks of drug-drug interactions. In this context, better knowledge of the potential drug interactions between TKIs and widely prescribed co- medications is of critical importance for clinicians, to improve their daily care of cancer patients. For one of the first TKI imatinib, TDM interpretation is nowadays based on total plasma concentrations but, only the unbound (free) form is likely to enter cell to exert its pharmacological action. Pharmacokinetic analysis of the total and free plasma level of imatinib measured simultaneously in patients have allowed to refine and validate a population pharmacokinetic model integrating factors influencing in patients the exposure of pharmacological active species. The equation developed from this model may be used for extrapolating free imatinib plasma concentration based on the total plasma levels that are currently measured in TDM from patients. Finally, the specific influence of Pglycoprotein on the intracellular disposition of TKIs has been studies in cell systems using the siRNA silencing approach.Another approach to enhance the selectivity of anticancer treatment may be achieved by the loco-regional administration of a cytostatic agent to the target organ while sparing non- affected tissues. Isolated lung perfusion (ILP) was designed for the treatment of loco-regional malignancies of the lung but clinical results have been so far disappointing. It has been shown in a preclinical model in rats that ILP with the cytotoxic agent doxorubicin alone allows a high drug uptake in lung tissue, and a low systemic toxicity, but was characterized by a high spatial tissular heterogeneity in drug exposure and doxorubicin uptake in tumor was comparatively smaller than in normal lung tissue. Photodynamic therapy (PDT) is a new approach for the treatment of superficial tumors, and implies the application of a sensitizer activated by a laser light at a specific wavelength, that disrupts endothelial barrier of tumor vessels to increase locally the distribution of cytostatics into the tumor tissue. PDT pre-treatment before intravenous administration of liposomal doxorubicin was indeed shown to selectively increase drug uptake in tumors in a rat model of sarcoma tumors to the lung.RésuméLe traitement de certains cancers s'est progressivement transformé et est passé de la chimiothérapie, cytotoxique et non spécifique, au traitement chronique des patients avec des thérapies moléculaires ciblées. Ces médicaments ont une action ciblée en interférant à un niveau spécifique du développement de la cellule tumorale. Dans les deux types d'approches thérapeutiques (chimiothérapie cytotoxique et traitements ciblés), on est confronté à la présence de toxicité et aux effets secondaires du traitement anticancéreux. Le but de cette thèse a donc été d'étudier diverses approches visant à améliorer l'efficacité et la tolérabilité du traitement anticancéreux, a) dans le cadre d'une recherche clinique, par le ciblage moléculaire grâce aux inhibiteurs de tyrosines kinases (TKIs) dont la posologie est adaptée à chaque patient, et b) dans un modèle préclinique, par le ciblage tissulaire grâce à l'administration locorégionale de chimiothérapie cytotoxique, afin d'augmenter l'exposition dans le tissu cible et de réduire la toxicité systémique du traitement.Un programme de recherche sur le suivi thérapeutique (Therapeutic Drug Monitoring, TDM) des inhibiteurs de tyrosine kinases a été ainsi mis en place et a impliqué le développement, la validation et l'application clinique d'une méthode multiplex par chromatographie liquide couplée à la spectrométrie de masse en tandem des TKIs chez les patients souffrant de cancer. L'information fournie par le TDM sur l'exposition des patients aux traitements ciblés est cliniquement utile et est susceptible d'optimiser la dose administrée, notamment dans les cas où la réponse clinique au traitement des patients est sous-optimale, en présence d'effets secondaires du traitement ciblé, ou lorsque des risques d'interactions médicamenteuses sont suspectés. Dans ce contexte, l'étude des interactions entre les TKIs et les co-médications couramment associées est utile pour les cliniciens en charge d'améliorer au jour le jour la prise en charge du traitement anticancéreux. Pour le premier TKI imatinib, l'interprétation TDM est actuellement basée sur la mesure des concentrations plasmatiques totales alors que seule la fraction libre (médicament non lié aux protéines plasmatiques circulantes) est susceptible de pénétrer dans la cellule pour exercer son action pharmacologique. L'analyse pharmacocinétique des taux plasmatiques totaux et libres d'imatinib mesurés simultanément chez les patients a permis d'affiner et de valider un modèle de pharmacocinétique de population qui intègre les facteurs influençant l'exposition à la fraction de médicament pharmacologiquement active. L'équation développée à partir de ce modèle permet d'extrapoler les concentrations libres d'imatinib à partir des concentrations plasmatiques totales qui sont actuellement mesurées lors du TDM des patients. Finalement, l'influence de la P-glycoprotéine sur la disposition cellulaire des TKIs a été étudiée dans un modèle cellulaire utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments.Une autre approche pour augmenter la sélectivité du traitement anticancéreux consiste en une administration loco-régionale d'un agent cytostatique directement au sein de l'organe cible tout en préservant les tissus sains. La perfusion isolée du poumon (ILP) a été conçue pour le traitement loco-régional des cancers affectant les tissus pulmonaires mais les résultats cliniques ont été jusqu'à ce jour décevants. Dans des modèles précliniques chez le rat, il a pu être démontré que l'ILP avec la doxorubicine, un agent cytotoxique, administré seul, permet une exposition élevée au niveau du tissu pulmonaire, et une faible toxicité systémique. Toutefois, cette technique est caractérisée par une importante variabilité de la distribution dans les tissus pulmonaires et une pénétration du médicament au sein de la tumeur comparativement plus faible que dans les tissus sains.La thérapie photodynamique (PDT) est une nouvelle approche pour le traitement des tumeurs superficielles, qui consiste en l'application d'un agent sensibilisateur activé par une lumière laser de longueur d'onde spécifique, qui perturbe l'intégrité physiologique de la barrière endothéliale des vaisseaux alimentant la tumeur et permet d'augmenter localement la pénétration des agents cytostatiques.Nos études ont montré qu'un pré-traitement par PDT permet d'augmenter sélectivement l'absorption de doxorubicine dans les tumeurs lors d'administration i.v. de doxorubicine liposomale dans un modèle de sarcome de poumons de rongeurs.Résumé large publicDepuis une dizaine d'année, le traitement de certains cancers s'est progressivement transformé et les patients qui devaient jusqu'alors subir des chimiothérapies, toxiques et non spécifiques, peuvent maintenant bénéficier de traitements chroniques avec des thérapies ciblées. Avec les deux types d'approches thérapeutiques, on reste cependant confronté à la toxicité et aux effets secondaires du traitement.Le but de cette thèse a été d'étudier chez les patients et dans des modèles précliniques les diverses approches visant à améliorer l'activité et la tolérance des traitements à travers un meilleur ciblage de la thérapie anticancéreuse. Cet effort de recherche nous a conduits à nous intéresser à l'optimisation du traitement par les inhibiteurs de tyrosines kinases (TKIs), une nouvelle génération d'agents anticancéreux ciblés agissant sélectivement sur les cellules tumorales, en particulier chez les patients souffrant de leucémie myéloïde chronique et de tumeurs stromales gastro-intestinales. L'activité clinique ainsi que la toxicité de ces TKIs paraissent dépendre non pas de la dose de médicament administrée, mais de la quantité de médicaments circulant dans le sang auxquelles les tumeurs cancéreuses sont exposées et qui varient beaucoup d'un patient à l'autre. A cet effet, nous avons développé une méthode par chromatographie couplée à la spectrométrie de masse pour mesurer chez les patients les taux de médicaments de la classe des TKIs dans la perspective de piloter le traitement par une approche de suivi thérapeutique (Therapeutic Drug Monitoring, TDM). Le TDM repose sur la mesure de la quantité de médicament dans le sang d'un patient dans le but d'adapter individuellement la posologie la plus appropriée: des quantités insuffisantes de médicament dans le sang peuvent conduire à un échec thérapeutique alors qu'un taux sanguin excessif peut entraîner des manifestations toxiques.Dans une seconde partie préclinique, nous nous sommes concentrés sur l'optimisation de la chimiothérapie loco-régionale dans un modèle de sarcome du poumon chez le rat, afin d'augmenter l'exposition dans la tumeur tout en réduisant la toxicité dans les tissus non affectés.La perfusion isolée du poumon (ILP) permet d'administrer un médicament anticancéreux cytotoxique comme la doxorubicine, sélectivement au niveau le tissu pulmonaire où sont généralement localisées les métastases de sarcome. L'administration par ILP de doxorubicine, toxique pour le coeur, a permis une forte accumulation des médicaments dans le poumon, tout en épargnant le coeur. Il a été malheureusement constaté que la doxorubicine ne pénètre que faiblement dans la tumeur sarcomateuse, témoignant des réponses cliniques décevantes observées avec cette approche en clinique. Nous avons ainsi étudié l'impact sur la pénétration tumorale de l'association d'une chimiothérapie cytotoxique avec la thérapie photodynamique (PDT) qui consiste en l'irradiation spécifique du tissu-cible cancéreux, après l'administration d'un agent photosensibilisateur. Dans ce modèle animal, nous avons observé qu'un traitement par PDT permet effectivement d'augmenter de façon sélective l'accumulation de doxorubicine dans les tumeurs lors d'administration intraveineuse de médicament.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cicatrisation cutanée requiert de nombreux mécanismes et un nombre toujours croissant de molécules participant à ces réactions sont identifiées. La compréhension de cette cinétique et des différents facteurs impliqués dans ce processus permet d'accélérer la guérison des plaies. Certains facteurs de croissance (PDGF, FGF, EGF) ont déjà été utilisés localement sur des plaies mais leurs effets relatés sont inconsistants et contradictoires, probablement en raison de l'absence de cinétique ou de concentration physiologique. Les plaquettes jouent un rôle fondamental dans la cicatrisation cutanée, principalement par la formation du clou plaquettaire et le relargage de divers facteurs de croissance et de cytokines. De même, les kératinocytes ont un rôle similaire dans l'épithélialisation des plaies. Ainsi, l'apport de plaquettes et de kératinocytes sur une plaie pourrait accélérer sa cicatrisation. L'étude rapportée ici tente de vérifier si une solution de kératinocytes autologues en suspension dans un concentré plaquettaire ou un concentré plaquettaire seul pourrait stimuler la cicatrisation cutanée. Pour ce faire, nous avons comparé trois groupes de 15 patients bénéficiant, sur une prise de greffe de profondeur similaire, d'un traitement standard fait de pansement simple, d'un concentré plaquettaire seul ou de kératinocytes autologues suspendus dans un concentré plaquettaire. Sur ces plaies, la durée de cicatrisation ainsi que la douleur au cours de la guérison ont été étudiés. Nos résultats montrent une réduction significative de la durée de cicatrisation dans le groupe traité avec un concentré plaquettaire, passant de 13.9 +/- 0.5 à 7.2 +/- 0.2 jours. Cet effet est encore plus marqué dans le groupe traité avec des kératinocytes en suspension dans un concentré plaquettaire passant de 13.9 +/- 0.5 à 5.7 +/- 0.2 jours. De même, la douleur évaluée au cinquième jour montre une nette diminution dans les deux groupes traités avec des cellules. En conclusion, notre travail montre que l'application de plaquettes autologues ou de kératinocytes en suspension dans un concentré plaquettaire permet d'accélérer la cicatrisation cutanée et de diminuer les douleurs, sans aucun effet indésirable constaté. Notre étude montre également qu'un concentré plaquettaire peut être utilisé comme vecteur pour une suspension de kératinocytes. L'identification de la cinétique d'apparition et de la concentration de chacun des facteurs de croissance lors de la cicatrisation cutanée permettrait dans le futur d'analyser plus finement et de traiter physiologiquement des plaies chroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesenhafte Zusammenfassung 1. Geschäftsmethoden ist urheberrechtlicher Schutz zu versagen. Vordergründig lässt sich die Schutzversagung mit dem Fehlen von Schutzvoraussetzungen er¬klären. Soweit es an einem Bezug zu Literatur, Wissenschaft oder Kunst man¬gelt, ist Schutz nach § 1 UrhG zu verwehren. Im Übrigen scheitert ein Schutz von Geschäftsmethoden in aller Regel an § 2 Abs. 2 UrhG. Angesichts ihrer Ausrichtung am Effizienzziel orientieren sich Geschäftsmethoden an Vorgege¬benem bzw. an Zweckmäßigkeitsüberlegungen, so dass Individualität ausschei¬det. Hintergrund sind jedoch Legitimierungsüberlegungen: Schutz ist mit Blick auf das Interesse der Allgemeinheit zu versagen, das auf ein Freibleiben von Geschäftsmethoden gerichtet ist und das Interesse des Entwicklers einer Geschäftsmethode an Ausschließlichkeit überwiegt. 2. Die Berücksichtigung der Interessen der Allgemeinheit ist durch Art. 14 Abs. 2 verfassungsrechtlich geboten. Im Urheberrechtsgesetz drückt sie sich vor allem in den Schrankenregelungen der §§ 44a ff. UrhG aus. Die Allgemeininteressen sind darüber hinaus auch auf der Ebene der Entstehung des Rechts zu berück¬sichtigen. Bei der Ermittlung der Interessen der Allgemeinheit sind auch öko¬nomische Überlegungen anzustellen und die wettbewerbsmäßigen Auswirkun¬gen eines Sonderrechtsschutzes zu berücksichtigen. 3. Im Bereich des urheberrechtlichen Datenbankschutzes konnte der Schutz von Geschäftsmethoden hinsichtlich der Auswahl oder Anordnung von Daten bisher durch das Erfordernis einer besonderen Gestaltungshöhe im Rahmen der Schutzvoraussetzung der Individualität verhindert werden. 4. Nach der Umsetzung der Datenbankrichtlinie kommt es infolge der Absenkung der Gestaltungshi5he hin zu einer einfachen Individualität sowie durch die Ein¬beziehung des konzeptionellen Modells in den urheberrechtlichen Schutzbereich vermehrt zu einem indirekten und direkten Schutz von Methoden. Das stellt einen Verstoß gegen die in Art. 9 Abs. 2 TRIPs statuierte Schutzfreiheit von Methoden dar. Auch wenn die Frage der unmittelbaren Anwendbarkeit dieser Norm noch nicht abschließend geklärt ist, hat das deutsche Urheberrechtsgesetz sie doch insofern zu berücksichtigen, als eine konventionsfreundliche Auslegung des Urheberrechtsgesetzes geboten ist. 5. Die bloße "Implementierung" von Geschäftsmethoden in Datenbanken darf nicht zum Schutz eines Gegenstandes führen, dem der Schutz an sich versagt ist. 6. Im Rahmen des Datenbankschutzes eine Monopolisierung von Methoden zuzulassen ist auch im Hinblick auf Art. 3 GG nicht unproblematisch. Denn Geschäftsmethoden, die anderen Werkarten zugrunde liegen, ist dieser Schutz weiterhin versagt, ohne dass ein sachlicher Grund für eine solche Differenzierung erkennbar wäre. 7. Überdies kann sich die Monopolisierung von Auswahl- und Anordnungsmethoden auch negativ auf die Informationsfreiheit auswirken. Es kann faktisch zu Monopolen an den in der Datenbank enthaltenen Informationen kommen. 8. Der Monopolisierung von Geschäftsmethoden zur Auswahl oder Anordnung von Daten ist daher entgegenzutreten. 9. Lösungen, die erst auf der Rechtsfolgenseite ansetzen, indem sie solche Methoden zwar als schutzbegründend ansehen, den Schutzumfang aber beschränken, sind abzulehnen. Sie durchbrechen den axiomatischen Zusammenhang zwischen Schutzbegründung und -umfang und führen dadurch zu willkürlichen Ergebnissen. Auch aus Anreizgesichtspunkten können sie nicht überzeugen. 10. Schutz ist bereits auf Tatbestandsebene zu versagen. 11. Die Schutzfreiheit von Geschäftsmethoden im Bereich des Datenbankschutzes kann dabei nicht durch eine Rückkehr zum Erfordernis einer besonderen Gestaltungshöhe erreicht werden. Dem steht der Wortlaut des Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") entgegen. Abgesehen davon ist das Individualitätskriterium auch nicht das geeignete Mittel, die Schutzfreiheit von Geschäftsmethoden zu gewährleisten: Zum einen erweist es sich als anfällig für Eingriffe seitens des Europäischen Gesetzgebers. Zum anderen kann es - da es an die sich im Werk ausdrückende Persönlichkeit des Urhebers anknüpft - insoweit nicht weiterhelfen, als Schutz nicht mangels Eigenpersönlichkeit, sondern aufgrund fehlender Legitimierbarkeit nach einer Interessenabwägung versagt wird. 12. Die Schutzfreiheit von Methoden sollte daher unabhängig von den Schutzvoraussetzungen, namentlich der Individualität, statuiert werden. 13. De lege lata kann das durch die Einführung eines ungeschriebenen negativen Tatbestandmerkmals geschehen. Dafür spricht die Regelung des § 69a Abs. 2 S. 2 UrhG, die für Computerprogramme die Schutzfreiheit von Ideen statuiert. Ein Verstoß gegen Art. 3 Abs. 1 S. 2 der Datenbankrichtlinie ("keine anderen Kriterien") kann einem solchen Tatbestandsmerkmal nicht entgegengehalten werden. Denn mit dem Ausschluss anderer Kriterien wollte der Europäische Gesetzgeber nur dem Erfordernis einer besonderen Gestaltungshöhe Einhalt gebieten, nicht aber die Tür für einen Methodenschutz öffnen. Ein dahingehender Wille darf ihm mit Blick auf Art. 9 Abs. 2 TRIPs auch nicht unterstellt werden. Die Schutzfreiheit sollte jedoch - anders als bei § 69a Abs. 2 S. 2 UrhG - schon auf Tatbestandsebene verankert werden. Ein solches Tatbestandsmerkmal könnte lauten: "Der Auswahl oder Anordnung zugrundeliegende abstrakte Methoden sowie solche konkreten Methoden, die sich an Vorgegebenem oder Zweckmäßigkeitsüberlegungen orientieren, können einen Schutz nach dieser Vorschrift nicht begründen." 14. Aus Gründen der Rechtsklarheit sollte de lege ferenda - wie im Patentrecht - die Schutzfreiheit von Geschäftsmethoden ausdrücklich und allgemein im Urheberrechtsgesetz festgeschrieben werden. Dafür sollte § 2 UrhG ein entsprechender Absatz 3 angefügt werden. Er könnte lauten: "Geschäftliche Methoden können einen Schutz nach diesem Gesetz nicht begründen 15. Soweit Datenbanken urheberrechtlicher Schutz mit Blick auf die Schutzfreiheit von Geschäftsmethoden versagt werden muss, verbleibt jedoch die Möglichkeit eines Schutzes nach den §§ 87a ff. UrhG. Dieser Schutz wird allein aufgrund einer wesentlichen Investition gewahrt. Die wirtschaftlich wertvollen auf Vollständigkeit angelegten Datenbanken werden dem sui-generis-Schutz regelmäßig unterfallen, so dass ausreichende Anreize zur Schaffung von Faktendatenbanken bestehen. Auch auf internationaler Ebene scheint dieses zweigleisige Sys¬tem Anklang zu finden, wie Reformarbeiten zur Einführung eines sui-generis-Schutzes für Datenbanken im Rahmen der WIPO belegen. Résumé sous forme de thèses 1. Une protection juridique des méthodes commerciales au sein du droit d'auteur doit être refusée. Au premier plan, le refus de protection peut être expliqué par un manque de conditions. S'il n'y a pas de référence dans la littérature, les sciences ou les arts, une protection doit être rejetée selon l'art. 1 de la législation allemande sur le droit d'auteur. D'ailleurs, une protection des méthodes commerciales sera interrompue en toute règle à cause de l'art. 2 al. 2 de la législation sur le droit d'auteur. Comme elles poursuivent l'objectif de l'efficacité, les méthodes commerciales se réfèrent à des faits donnés et/ou à des considérations d'utilité ce qui exclut l'individualité. En arrière-plan, cependant, il y a des considérations de légitimité. La protection doit être rejetée étant donné l'intérêt du public, qui est orienté vers un manque de protection des méthodes commerciales. Cet intérêt du public est prépondérant l'intérêt du fabricant, qui est dirigé vers une exclusivité sur la méthode commerciale. 2. La prise en considération des intérêts du public est imposée par l'art. 14 al. 2 de la Constitution allemande. Dans la loi sur le droit d'auteur, elle s'exprime avant tout dans les règlements restrictifs des art. 44a et suivants. Les intérêts du public doivent d'ailleurs être considérés au niveau de la formation du droit. En évaluant les intérêts du public, il est utile de considérer aussi les conséquences économiques et celles d'une protection particulière du droit d'auteur au niveau de la concurrence. 3. Dans le domaine de la protection des bases de données fondé dans le droit d'auteur, une protection des méthodes commerciales a pu été empêchée jusqu'à présent en vue du choix ou de la disposition de données par l'exigence d'un niveau d'originalité particulier dans le cadre des conditions de protection de l'individualité. 4. La mise en pratique de la directive sur les bases de données a abouti de plus en plus à une protection directe et indirecte des méthodes en conséquence de la réduction des exigences de l'originalité vers une simple individualité ainsi que par l'intégration du modèle conceptionnel dans le champ de protection du droit d'auteur. Cela représente une infraction contre l'exclusion de la protection des méthodes commerciales stipulée dans l'art. 9 al. 2 des Accords ADPIC (aspects des droits de propriété intellectuelle qui touchent au commerce), respectivement TRIPS. Même si la question de l'application directe de cette norme n'est pas finalement clarifiée, la législation allemande sur le droit d'auteur doit la considérer dans la mesure où une interprétation favorable aux conventions de la législation du droit d'auteur est impérative. 5. La simple mise en pratique des méthodes commerciales sur des bases de données ne doit pas aboutir à la protection d'une chose, si cette protection est en effet refusée. 6. En vue de l'art. 3 de la Constitution, il est en plus problématique de permettre une monopolisation des méthodes au sein de la protection de bases de données. Car, des méthodes commerciales qui sont basées sur d'autres types d'oeuvres, n'ont toujours pas droit à cette protection, sans qu'une raison objective pour une telle différenciation soit évidente. 7. En plus, une monopolisation des méthodes pour le choix ou la disposition des données peut amener des conséquences négatives sur la liberté d'information. En effet, cela peut entraîner des monopoles des informations contenues dans la base de données. 8. Une monopolisation des méthodes commerciales pour le choix ou la disposition des données doit donc être rejetée. 9. Des solutions présentées seulement au niveau des effets juridiques en considérant, certes, ces méthodes comme justifiant une protection, mais en même temps limitant l'étendue de la protection, doivent être refusées. Elles rompent le contexte axiomatique entre la justification et l'étendue de la protection et aboutissent ainsi à des résultats arbitraires. L'argument de créer ainsi des stimulants commerciaux n'est pas convaincant non plus. 10. La protection doit être refusée déjà au niveau de l'état de choses. 11. Une exclusion de la protection des méthodes commerciales dans le domaine des bases de données ne peut pas être atteinte par un retour à l'exigence d'un niveau d'originalité particulier. Le texte de l'art 3 al. 1 p. 2 de la directive sur les bases de données s'oppose à cela (« aucun autre critère »). A part cela, le critère de l'individualité n'est pas non plus le moyen propre pour garantir une exclusion de la protection des méthodes commerciales. D'un côté, ce critère est susceptible d'une intervention par le législateur européen. D'un autre côté, il n'est pas utile, comme il est lié à la personnalité de l'auteur exprimé dans l'oeuvre, dans la mesure où la protection n'est pas refusée pour manque d'individualité mais pour manque de légitimité constaté après une évaluation des intérêts. 12. L'exclusion de la protection des méthodes devra donc être stipulée indépendamment des conditions de protection, à savoir l'individualité. 13. De lege lata cela pourra se faire par l'introduction d'un élément constitutif négatif non écrit. Cette approche est supportée par le règlement dans l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur qui stipule l'exclusion de la protection des idées pour des programmes d'ordinateur. Un tel élément constitutif ne représente pas d'infraction à l'art. 3 al. 1 p. 2 de la directive sur les bases de données (« aucun autre critère »). En excluant d'autres critères, le législateur européen n'a voulu qu'éviter l'exigence d'un niveau d'originalité particulier et non pas ouvrir la porte à une protection des méthodes. En vue de l'art. 9 al. 2 des Accords TRIPs, il ne faut pas prêter une telle intention au législateur européen. Cependant, l'exclusion de la protection devrait - autre que dans le cas de l'art. 69a al. 2 p. 2 de la législation allemande sur le droit d'auteur - être ancrée déjà au niveau de l'état de choses. Un tel élément constitutif pourrait s'énoncer comme suit : « Des méthodes abstraites se référant au choix ou à la disposition de données ainsi que des méthodes concrètes s'orientant à des faits donnés ou à des considérations d'utilité ne peuvent pas justifier une protection selon ce règlement. » 14. Pour assurer une clarté du droit, une exclusion de la protection des méthodes commerciales devrait de lege ferenda - comme dans la législation sur les brevets - être stipulée expressément et généralement dans la législation sur le droit d'auteur. Un troisième alinéa correspondant devrait être ajouté. Il pourrait s'énoncer comme suit : « Des méthodes commerciales ne peuvent pas justifier une protection selon cette loi ». 15. S'il faut refuser aux bases de données une protection au sein du droit d'auteur en vue de l'exclusion de la protection pour des méthodes commerciales, il est quand même possible d'accorder une protection selon les articles 87a et suivants de la législation allemande sur le droit d'auteur. Cette protection est uniquement accordée en cas d'un investissement substantiel. Les bases de données ayant une grande importance économique et s'orientant vers l'intégralité seront régulièrement soumises à la protection sui generis de sorte qu'il y ait de suffisants stimulants pour la fabrication de bases de données de faits. Ce système à double voie semble également rencontrer de l'intérêt au niveau international, comme le prouvent des travaux de réforme pour l'introduction d'une protection sui generis pour des bases de données au sein de l'OMPI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Les marques occupent une place centrale dans le monde économique moderne. Indispensables pour distinguer les produits ou services d'une entreprise sur le marché et guider le consommateur vers l'article de son choix, elles constituent un instrument de marketing et de publicité essentiel. Les investissements souvent considérables liés à la création et au lancement d'une marque méritent une protection adéquate. C'est pourquoi la loi fédérale sur la protection des marques et des indications de provenance (LPM) accorde au titulaire d'un enregistrement de marque le droit exclusif de faire usage de cette marque et d'en disposer. Cette protection est ce¬pendant assortie d'une condition: passé un délai de grâce de cinq ans, la marque doit être utilisée en relation avec les produits ou les services enre-gistrés. C'est le principe de l'obligation d'usage. Ce principe, qui soulève de nombreux problèmes juridiques, n'a pas encore fait l'objet d'une étude systématique approfondie depuis l'entrée en vigueur de la LPM. La présente monographie vise à combler cette lacune. L'étude de l'obligation d'usage implique de se pencher sur deux problèmes principaux: d'une part, l'usage en tant que condition légale au maintien du droit (art. 11 LPM) et, d'autre part, les conséquences du défaut d'usage (art. 12 LPM). Nous avons donc divisé notre recherche en deux parties. La première partie comporte quatre titres. Le titre premier est consacré à la présentation générale de l'obligation d'usage; le deuxième à la notion d'usage de la marque. Le troisième concerne l'usage sous une forme divergeant de la marque enregistrée et la question des produits ou services pour lesquels la marque doit être utilisée. Enfin, le titre quatrième traite des problèmes relatifs au lieu et à l'auteur de l'usage. La seconde partie est divisée en trois titres. Le titre cinquième a pour objet les mécanismes de la déchéance et de la restitution du droit. Le sixième porte sur les justes motifs pour le non-usage et le septième sur les voies de droit permettant d'invoquer la déchéance. Le principe de l'obligation d'usage existait déjà avant l'entrée en vigueur de la loi sur la protection des marques, raison pour laquelle nous commencerons généralement par exposer les principes développés sous l'ancien droit avant d'analyser chaque question. Afin de tenir compte des développements intervenus sur le plan européen, notamment suite à l'adoption de la directive d'harmonisation de 1988, nous examinerons également les solutions retenues en droit français, en droit allemand et en droit communautaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Célèbre est devenu le concept d'empreinte écologique qui se présente comme un indicateur composite supposé nous renseigner sur l'espace utilisé par les hommes pour produire les ressources qu'ils consomment et les déchets qu'ils rejettent, le mettre en regard de la capacité écologique de la planète (la biocapacité), donc le revenu écologique à disposition des hommes. Lorsque l'empreinte écologique excède la biodiversité, cela signifie que la planète est en danger. Le succès de cet indicateur élaboré par le Global Footprint Network (GFN) tient sans doute aux conclusions sensationnelles qui se dégagent des calculs effectués : par exemple, la propagation à la planète du mode de vie nord-américain exigerait à elle seule cinq planètes... Il est donc important de comprendre comment a été élaboré cet indicateur, quelle est sa fiabilité et quels enseignements peuvent en être tirés en vue de l'adoption d'une politique de développement durable. Tel est le premier objectif de cet article qui en explique la philosophie, montre comment est conçu cet indicateur et comment sont opérés les calculs. Mais les auteurs ne s'arrêtent pas là. Ils rappellent certaines impasses faites consciemment par le GFN, puis les critiques déjà adressées à cet indicateur qui, précisément en raison de son caractère composite, agrège des données hétérogènes et procède à des calculs et des pondérations sujets à caution dont les enseignements sont donc contestables ? par exemple lorsqu'il suggère que certains pays auraient intérêt à remplacer leurs forêts pour accroître les surfaces cultivables, alors même que l'espace bâti (amputant lui aussi des terres arables) n'est absolument pas remis en question. Au-delà même de ces réserves, les auteurs prolongent et approfondissent la critique de l'empreinte écologique. Ainsi soulignent-ils, par exemple, que l'empreinte carbone compte pour la moitié de l'empreinte totale et que, si on se contentait de mesurer celle-ci en quantité physique plutôt qu'en usant d'un artefact (l'hectare global), le calcul serait sans doute plus robuste et les conclusions non moins alarmistes puisqu'il faudrait cette fois 11 planètes si d'aventure le mode de vie nord-américain devait s'étendre au monde entier. Même s'il peut paraître parfois un peu ardu, cet article est à lire absolument car ses auteurs y mettent en évidence un certain nombre de problèmes majeurs que nul ne saurait ignorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study was initiated to investigate partial melting within the high-grade metamorphic rocks beneath the Little Cottonwood contact aureole (Utah, USA), in order to understand the melt generation, melt migration, and geometry of initial melt distribution on grain scale during crustal anatexis. The emplacement of the Little Cottonwood stock produced a contact aureole in the pelitic host rocks of the Big Cottonwood formation (BC). Metamorphic isogrades in pelitic rocks range form biotite to 2nd sillimanite grade as a function of distance from the contact. Migmatites are restricted to the highest grade and resulted form partial melting of the BC formation rocks. First melt was produced by a combined muscovite/biotite dehydration reaction in the sillimanite + k-feldspar stability field. Melt extraction from the pelites resulted in restites (magnetite + cordierite + alumosilicate ± biotite) surrounded by feldspar enriched quartzite zones. This texture is the result of gradual infiltration of partial melts into the quartzite. Larger, discrete melt accumulation occurred in extensional or transpressional domains such as boudin necks, veins, and ductile shear zones. Melt composition are Si02- rich, crystallized as pegmatites, and apparently were very mobile. They were able to infiltrate the quartzite pervaisivly. These melts are similar in composition to first melts produced in the hydrothermal partial melt experiments at 2kbar between 700 - 800°C on fine grained high metamorphic rocks (andalusite-cordierited-biotite-zone) of the BC formation. The experimental melts are water rich and in disequilibrium with the melting rock. Initial melt composition is heterogeneous for short run duration, reflective a lack of chemical equilibrium between individual melt pools. Rock core scale heterogeneity decreased with time indicating partial homogenization of melt compositions. A simultaneous shift of melt composition to higher silica content with time was observed. The silica content of the melt increased due to local melt/mineral reactions. Melt textures indicate that reactive melt transport is most efficient along grain boundaries rimmed by dissimilar grains. Melt heterogeneity resulted in chemical potential gradients which are major driving forces for initial melt migration and govern melt distribution during initial melting. An additional subject of the thesis is the crystal size distributions of opaque minerals in a fine-grained, high-grade meta-pelite of the Big Cottonwood which were obtained from 3D X-ray tomography (uCT) and 2D thin section analysis. µCT delivers accurate size distributions within a restricted range (~ a factor of 20 in size in a single 3D image), while the absolute number of crystals is difficult to obtain from these sparsely distributed, small crystals on the basis of 2D images. Crystal size distributions obtained from both methods are otherwise similar. - Ce travail de recherche a été entrepris dans le but d'étudier les processus de fusion partielle dans les roches fortement métamorphiques de l'auréole de contact de Little Cottonwood (Utah, USA) et ceci afin de comprendre la génération de liquide de fusion, la migration de ces liquides et la géométrie de la distribution initiale des liquides de fusion à l'échelle du grain durant l'anatexie de la croûte. L'emplacement du petit massif intrusif de Little Cottonwood a produit une auréole de contact dans les roches pélitiques encaissantes appartenant à la Foimation du Big Cottonwood (BC). Les isogrades métamorphiques dans les roches pélitiques varient de l'isograde de la biotite à la deuxième isograde de la sillimanite en fonction de la distance par rapport au massif intrusif. Les migmatites sont restreintes aux zones montrant le plus haut degré métamorphique et résultent de la fusion partielle des roches de la Formation de BC. Le premier liquide de fusion a été produit par la réaction de déshydratation combinée de la muscovite et de la biotite dans le champ de stabilité du feldspath potassique Pt de la sillimanite. L'extraction du liquide de fusion des pélites forme des restites (magnétites + cordiérite + aluminosilicate ± biotite) entourées par des zones de quartzites enrichies en feldspath. Cette texture est le résultat de l'infiltration graduelle du liquide de fusion partielle dans les quartzites. Des accumulations distinctes et plus larges de liquide de fusion ont lieu dans des domaines d'extension ou de transpression tels que les boudins, les veines, et les zones de cisaillement ductile. La composition des liquides de fusion est similaire à celle des liquides pegmatoïdes, et ces liquides sont apparemment très mobiles et capables d'infiltrer les quartzites. Ces liquides de fusion ont la même composition que les premiers liquides produits dans les expériences hydrotheunales de fusion partielle à 2kbar et entre 700-800° C sur les roches finement grenues et hautement métamorphiques (andalousite-cordiérite-biotite zone) de la Formation de BC. Les liquides de fusion obtenus expérimentalement sont riches en eau et sont en déséquilibre avec la roche en fusion. La composition initiale des liquides de fusion est hétérogène pour les expériences de courte durée et reflète l'absence d'équilibre chimique entre les différentes zones d'accumulation des liquides de fusion. L'hétérogénéité à l'échelle du noyau s'estompe avec le temps et témoigne de l'homogénéisation de la composition des liquides de fusion. Par ailleurs, on observe parallèlement un décalage de la composition des liquides vers des compositions plus riches en silice au cours du temps. Le contenu en silice des liquides de fusion évolue vers un liquide pegmatitique en raison des réactions liquides/minéraux. Les textures des liquides de fusion indiquent que le transport des liquides est plus efficace le long des bordures de grains bordés par des grains différents. Aucun changement apparent du volume total n'est visible. L'hétérogénéité des liquides s'accompagne d'un gradient de potentiel chimique qui sert de moteur principal à la migration des liquides et à la distribution des liquides durant la fusion. Un sujet complémentaire de ce travail de thèse réside dans l'étude de la distribution de la taille des cristaux opaques dans les pélites finement grenues et fortement métamorphiques de la Formation de Big Cottonwood. Les distributions de taille ont été obtenues suite à l'analyse d'images 3D acquise par tomographie ainsi que par analyse de lames minces. La microtomographie par rayon X fournit une distribution de taille précise sur une marge restreinte (- un facteur de taille 20 dans une seule image 3D), alors que le nombre absolu de cristaux est difficile à obtenir sur la base d'image 2D en raison de la petite taille et de la faible abondance de ces cristaux. Les distributions de taille obtenues par les deux méthodes sont sinon similaire. Abstact: Chemical differentiation of the primitive Earth was due to melting and separation of melts. Today, melt generation and emplacement is still the dominant process for the growth of the crust. Most granite formation is due to partial melting of the lower crust, followed by transport of magma through the crust to the shallow crust where it is emplaced. Partial melting and melt segregation are essential steps before such a granitic magma can ascent through the crust. The chemistry and physics of partial melting and segregation is complex. Hence detailed studies, in which field observations yield critical information that can be compared to experimental observations, are crucial to the understanding of these fundamental processes that lead and are leading to the chemical stratification of the Earth. The research presented in this thesis is a combined field and experimental study of partial melting of high-grade meta-pelitic rocks of the Little Cottonwood contact aureole (Utah, USA). Contact metamorphic rocks are ideal for textural studies of melt generation, since the relatively short times of the metamorphic event prevents much of the recrystallization which plagues textural studies of lower crustal rocks. The purpose of the study is to characterize melt generation, identify melting reactions, and to constrain melt formation, segregation and migration mechanisms. In parallel an experimental study was undertaken to investigate melt in the high grade meta pelitic rocks, to confirm melt composition, and to compare textures of the partial molten rock cores in the absence of deformation. Results show that a pegmatoidal melt is produced by partial melting of the pelitic rocks. This melt is highly mobile. It is capable of pervasive infiltration of the adjacent quartzite. Infiltration results in rounded quartz grains bordered by a thin feldspar rim. Using computed micro X-ray tomography these melt networks can be imaged. The infiltrated melt leads to rheological weakening and to a decompaction of the solid quartzite. Such decompaction can explain the recent discovery of abundant xenocrysts in many magmas, since it favors the isolation of mineral grains. Pervasive infiltration is apparently strongly influenced by melt viscosity and melt-crystal wetting behavior, both of which depend on the water content of melt and the temperature. In all experiments the first melt is produced on grain boundaries, dominantly by the local minerals. Grain scale heterogeneity of a melting rock leads thus to chemical concentration gradients in the melt, which are the driving force for initial melt migration. Pervasive melt films along grain boundaries leading to an interconnected network are immediately established. The initial chemical heterogeneities in the melt diminish with time. Résumé large public: La différenciation chimique de la Terre primitive est la conséquence de la fusion des roches et de la séparation des liquides qui en résultent. Aujourd'hui, la production de liquide magmatique est toujours le mécanisme dominant pour la croissance de la croûte terrestre. Ainsi la formation de la plupart des granites est un processus qui implique la production de magma par fusion partielle de la croûte inférieure, la migration de ces magmas à travers la croûte et finalement son emplacement dans les niveaux superficielle de la croûte terrestre. Au cours de cette évolution, les processus de fusion partielle et de ségrégation sont des étapes indispensables à l'ascension des granites à travers la croûte. Les conditions physico-chimiques nécessaires à la fusion partielle et à l'extraction de ces liquides sont complexes. C'est pourquoi des études détaillées des processus de fusion partielle sont cruciales pour la compréhension de ces mécanismes fondamentaux responsables de la stratification chimique de la Terre. Parmi ces études, les observations de terrain apportent notamment des informations déterminantes qui peuvent être comparées aux données expérimentales. Le travail de recherche présenté dans ce mémoire de thèse associe études de terrain et données expérimentales sur la fusion partielle des roches pélitiques de haut degré métamorphiques provenant de l'auréole de contact de Little Cottonwood (Utah, USA). Les roches du métamorphisme de contact sont idéales pour l'étude de la folination de liquide de fusion. En effet, la durée relativement courte de ce type d'événement métamorphique prévient en grande partie la recristallisation qui perturbe les études de texture des roches dans la croûte inférieure. Le but de cette étude est de caractériser la génération des liquides de fusion, d'identifier les réactions responsables de la fusion de ces roches et de contraindre la formation de ces liquides et leur mécanisme de ségrégation et de migration. Parallèlement, des travaux expérimentaux ont été entrepris pour reproduire la fusion partielle de ces roches en laboratoire. Cette étude a été effectuée dans le but de confirmer la composition chimique des liquides, et de comparer les textures obtenues en l'absence de déformation. Les résultats montrent qu'un liquide de fusion pegmatoïde est produit par fusion partielle des roches pélitiques. La grande mobilité de ce liquide permet une infiltration pénétrative dans les quarzites. Ces infiltrations se manifestent par des grains de quartz arrondis entourés par une fine bordure de feldspath. L'utilisation de la tomography à rayons X a permis d'obtenir des images de ce réseau de liquide de fusion. L'infiltration de liquide de fusion entraîne un affaiblissement de la rhéologie de la roche ainsi qu'une décompaction des quartzites massifs. Une telle décompaction peut expliquer la découverte récente d'abondants xénocristaux dans beaucoup de magmas, puisque elle favorise l'isolation des minéraux. L'infiltration pénétrative est apparemment fortement influencée par la viscosité du fluide de fusion et le comportement de la tension superficielle entre les cristaux et le liquide, les deux étant dépendant du contenu en eau dans le liquide de fusion et de la température. Dans toutes les expériences, le premier liquide est produit sur les bordures de grains, principalement par les minéraux locaux. L'hétérogénéité à l'échelle des grains d'une roche en fusion conduit donc à un gradient de concentration chimique dans le liquide, qui sert de moteur à l'initiation de la migration du liquide. Des fines couches de liquide de fusion le long de bordures de grains formant un réseau enchevêtré s'établit immédiatement. Les hétérogénéités chimiques initiales dans le liquide s'estompent avec le temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé en français Contexte Les interventions intensives d'aide à l'arrêt de la cigarette en milieu hospitalier n'ont pas été adoptées à large échelle, peut-être en raison de barrières organisationnelles. Nous évaluons dans cette étude l'efficacité d'une approche moins contraignante. Méthodes Nous avons conçu et réalisé une étude de cohorte avec un groupe de contrôle historique dans le département de médecine d'un hôpital universitaire de 850 lits. Cent dix-sept fumeurs éligibles consécutifs ont bénéficié d'une intervention d'aide à l'arrêt de la cigarette et 113 fumeurs hospitalisés avant l'implémentation de cette intervention ont constitué notre groupe de contrôle. L'intervention d'aide à l'arrêt de la cigarette, d'une durée de 30 minutes, était réalisée par un médecin assistant formé en désaccoutumance au tabac, sans aucun contact ultérieur de suivi. Tous les patients ont ensuite reçu un questionnaire pour évaluer quelles étaient leurs habitudes en matière de tabagisme 6 mois après leur sortie d'hôpital. Nous avons considéré les patients perdus de vue comme fumeurs et l'abstinence tabagique ponctuelle (au moins 7 jours consécutifs) des ex-fumeurs a été validée par leur médecin traitant. Résultats Les taux d'arrêt de la cigarette validés étaient de 23.9% dans le groupe intervention et de 9.7% dans le groupe contrôle (odds ratio 2.9, intervalle de confiance à 95% [IC95] 1.4 à 6.2). Après ajustement pour les facteurs confondants potentiels, l'intervention était toujours efficace, avec un odds ratio ajusté de 2.7 (1095 = 1.0 à 5.0). Conclusion Une intervention d'aide à l'arrêt de la cigarette de faible intensité, sans contact de suivi, est associée avec un plus haut taux d'arrêt de la cigarette à 6 mois en comparaison avec un groupe de contrôle historique.