363 resultados para Efficacité populationnelle
Resumo:
Introduction : la Sclérose en plaques (SEP) est le prototype de désordre auto-immun du système nerveux central. Avec environ 110 malades par 100'000 habitants, la Suisse est considérée un pays à haute prévalence. Chez environ 80% des patients, la maladie débute par la forme récurrente- rémittente (RR), où des poussées aiguës s'intercalent avec des périodes de rémission. Cette phase se conclut dans son évolution naturelle généralement en une phase secondairement progressive, pendant laquelle le déficit progresse en l'absence de poussée. Sur le plan physiopathologique, deux phénomènes interagissent : l'atteinte inflammatoire démyélinisante et l'atteinte neurodégénerative. La première est { l'origine des poussées aiguës, la deuxième se manifeste cliniquement par la progression irréversible du déficit neurologique. En Suisse les immunomodulateurs ont été utilisés comme thérapies de fond pour la SEP à partir des années 1995. Leur effet sur le taux de poussées a été largement démontré, tandis que leur efficacité sur l'évolution de la maladie à long terme reste ouverte. Le moyen le plus répandu pour quantifier le niveau du handicap neurologique est la Kurtzke Expanded Disability Status Scale (EDSS). Cette échelle évalue les troubles neurologiques en les classifiant de 0 (examen normal) à 10 (décès) avec des marches de demi-points. Notre recherche à voulu identifier des facteurs cliniques précoces { valeur prédictif sur l'évolution du déficit neurologique permanent, ainsi qu'analyser le moment d'introduction du traitement pour extraire des informations utiles { la décision thérapeutique. Méthodes : Exploitation de la base de données iMed-CHUV comptant 1150 patients SEP (dont 622 SEP RR) pour analyser rétrospectivement, dans la SEP RR, l'influence de différentes variables cliniques précoces (taux de poussées pendant les premières deux années de maladie, intervalle entre les deux premières poussées, sévérité et site anatomique de la première poussée, déficit résiduel après la première poussée) et de deux caractéristiques liées { l'instauration du traitement immunosuppresseur de fond (âge et délai d'introduction) sur l'évolution du déficit neurologique vers un score EDSS ≥4.0. Les variables ont été testées avec la méthode d'estimation de taux de survie Kaplan-Meier. Résultats: 349 patients avec SEP RR possédaient les critères nécessaires pour faire partie de l'analyse, le suivi moyen étant de 8.26 ans (SD 4.77). Un taux de poussées élevé pendant les premiers 2 ans (>1 vs ≤1) et un long intervalle entre les 2 premiers épisodes (>36 vs >12-36 vs ≤12) étaient significativement associés au risque de progression du déficit neurologique vers un score EDSS de 4.0 ou plus (log Rank P=0.016 et P=0.008 respectivement). Par contre ni le site anatomique de la première poussée ni l'âge d'introduction du traitement immunomodulateur n'avaient d'influence significative sur la progression du déficit neurologique (log rank P=0.370 et P=0.945 respectivement). Etonnamment une introduction rapide du traitement était associée à une plus forte progression du déficit neurologique (log rank P=0.032), montrant qu'une partie des patients a une évolution bénigne même en l'absence de traitement. Conclusions : L'activité inflammatoire précoce, dont le niveau peut être estimé par indices précoces comme le taux de poussées et l'intervalle entre les deux premières poussées, mais non le site de primo-manifestation prédit la progression ultérieure du déficit neurologique. Ces indices doivent être utilisés en combinaison avec les informations fournies par l'IRM pour l'individuation et le traitement précoce des patients à risque, indépendamment de leur âge. En raison des effets indésirables et des coûts élevés, les thérapies doivent cibler de façon spécifique les classes à risque, et épargner les patients avec évolution lente.
Resumo:
Les techniques utilisant la chaise vide ou le dialogue sur deux chaises sont des moyens qui permettent le déploiement de techniques expérientielles dans différentes formes de psychothérapie. Cet article vise à retracer l'origine de ces techniques dans les courants Gestalt et centré sur la personne, pour ensuite présenter quelques développements actuels au sein des thérapies expérientielles au sens large. Les techniques présentées sont classées selon leur finalité primordiale, à savoir : leur utilisation dans le but de clarifier et de construire du sens et leur utilisation dans le but de modifier des déterminants internes du problème. Les techniques suivantes sont brièvement présentées, illustrées par des vignettes cliniques et discutées : élaboration du conflit interne ; élaboration de l'auto-interruption ; élaboration d'un conflit avec une personne significative ; dialogue d'apaisement ; éléments cognitifs du jeu de rôle avec une seule personne ; éléments affectifs du jeu de rôle avec une seule personne. Nous discutons les travaux de recherche mettant en évidence l'efficacité et l'effectivité de ces techniques et terminons par des réflexions au sujet de l'indication différentielle de ces techniques, avec une réflexion au sujet des perspectives cliniques et de recherche. © 2013 Publié par Elsevier Masson SAS pour la Société française de psychologie.
Resumo:
L'article publié de le cadre de cette thèse est intitulé "Effectiveness of interventions targeting frequent users of emergency departments: A systematic review." Il a été publié par les "Annals of Emergency Medicine (AEM)" en juillet 2011. Le titre en français pourrait être: "Efficacité des interventions ciblant les utilisateurs fréquents des services d'urgence: Une revue systématique." Le titre du journal américain pourrait être: "Annales de Médecine d'Urgence". Il s'agit du journal du "Collège Américain des Médecins d'Urgence", en anglais "American College of Emergency Physicians (ACEP)". L'article a été soumis à l'AEM en raison de l'intérêt que ses rédacteurs en chef portent pour le sujet des utilisateurs fréquents des services d'urgence, démontré depuis plus de dix ans par la publication de nombreux articles dans ce domaine. Le facteur d'impact de l'AEM est de surcroît le plus important des journaux d'urgence, assurant ainsi une large diffusion des articles publiés. Lors de sa publication, l'article a été accompagné d'un éditorial signé par le Docteur Maria C. Raven, médecin au Centre Hospitalier de Bellevue à New York, Etats-Unis.¦Contexte et enjeux¦La Direction Générale du Centre Hospitalier Vaudois (CHUV) finance, dans le cadre du plan stratégique 2009-2013, un axe "populations vulnérables". Cet axe est porté en grande partie par des projets développés au sein de la Policinlique Médicale Universitaire et l'Unité des Populations Vulnérables qui prend en charge, enseigne la prise en charge et s'interroge sur la prise en charge des personnes les plus vulnérables. C'est dans ce contexte que nous avons été amenés à réfléchir à l'existence éventuelle de marqueurs de vulnérabilité; l'utilisation fréquente des services d'urgence par certains individus constitue à n'en pas douter l'un de ces marqueurs. Il existe une importante littérature décrivant en détail ces utilisateurs fréquents des services d'urgence, raison pour laquelle nous avons décidé de faire un pas supplémentaire et de nous interroger sur l'efficacité des interventions (quelle qu'elles soient) ciblant cette population particulière. Nous avons ainsi entrepris une revue systématique de la littérature scientifique médicale et sociale pour approfondir cette question, et c'est précisément le résultat de cette recherche qui constitue ce travail de thèse.¦Conclusions et perspectives¦Les utilisateurs fréquents des services d'urgence sont des individus particulièrement vulnérables, et ce aussi bien aux Etats-Unis, qu'en Europe ou en Australie: ils présentent par exemple une mortalité supérieure aux autres utilisateurs des urgences; ils sont également plus à risque de présenter une consommation abusive d'alcool ou de drogues, une maladie mentale, ou une maladie chronique. Ils sont plus souvent sans abri, sans assurance et d'un statut socio-économique bas.¦De nombreuses interventions on été développées pour prendre en charge les utilisateurs fréquents des urgences. Le but de ces interventions est d'une part de réduire la consommation des services d'urgence et d'autre part d'améliorer la santé au sens large de ces patients vulnérables. C'est en ces termes (réduction de la fréquence d'utilisation des services d'urgence et amélioration de la santé) que l'efficacité d'une intervention est mesurée.¦Parmi l'ensemble des interventions étudiées, l'une semble particulièrement efficace pour réduire le nombre de visites aux urgences et améliorer un certain nombre de marqueurs sociaux (accès à un logement ou à une assurance-maladie). Cette intervention est appelée "case management" (ou "gestion de cas", difficile tentative de traduction de ce concept en français), et consiste en une approche multidisciplinaire (médecins, infirmiers, assistants sociaux) fournissant un service individualisé, dans le cadre de l'hôpital et souvent également dans la communauté. L'approche consiste à évaluer les besoins précis du patient, à l'accompagner dans son parcours de soin, à l'orienter si nécessaire et à mettre en place autour de lui un réseau communiquant de manière adaptée.¦Le "case management" ayant montré son efficacité dans la prise en charge des utilisateurs fréquents des services d'urgence, y-compris en termes de coûts, notre conclusion va dans le sens d'encourager les hôpitaux à évaluer l'importance de ce phénomène dans leur propre pratique et à mettre en place des équipes de prise en charge de ces patients, dans le double but de soutenir des patients particulièrement vulnérables et de réduire la consommation des services d'urgence. Suite à la réflexion suscitée par ce travail de thèse, une telle équipe a été mise en place en 2010, dans un cadre de recherche-action, au niveau du CHUV. Ce projet est dirigé par le Dr Patrick Bodenmann, responsable de l'Unité Populations Vulnérables de la Policlinique Médicale Universitaire de Lausanne. Le Dr Bodenmann est également le directeur de cette thèse et le dernier auteur de la revue systématique.
Resumo:
L'état de mal épileptique est une condition médicale sévère fréquemment rencontrée dont la mortalité est importante. Son traitement représente donc une urgence médicale. Il a déjà été démontré par des études bien conduites (Treiman et al., 1998) que l'administration de benzodiazépines est efficace en première intention. Or, 35-45% des états de mal échappent à ce traitement et malheureusement, les données scientifiques concernant le traitement de deuxième ligne sont nettement moins consistantes. Par ailleurs, si le rôle pronostique des caractéristiques de l'état de mal (type de crise, étiologie, état de conscience, âge du patient) sont connues (Rossetti et al., 2006), (Neligan and Shorvon, 2011), le rôle des comorbidités n'a reçu que peu d'attention à ce Dans la première partie de ce travail publiée dans Epilepsia (Alvarez et al., 2011) nous nous sommes intéressé au traitement de deuxième ligne et principalement aux trois substances les plus prescrites : la phénytoine (PHT), le valproate (VPA) et plus récemment le lévétiracetam (LEV). A ce jour, aucune étude n'avait comparé l'efficacité de ces substances pourtant largement utilisées. Ainsi, afin de savoir lequel ces anti-épileptiques utilisés en 2ème ligne est le plus efficace, nous avons extrait de notre base de données regroupant tout les états de mal épileptiques traités au Centre Hospitalier Universitaire Vaudois, tous les épisodes durant lesquelles le traitement par benzodiazépines à échoué (187 épisodes). Nous avons ensuite comparé les différentes caractéristiques cliniques et les différents outcomes de trois groupes de patients (ceux qui ont reçu de la PHT, du VPA ou du LEV). Nous avons pu mettre ainsi en évidence certaines différences d'efficacité inconnues jusqu'alors entre le VPA et le LEV, impliquant une certaine prudence face à l'emploi grandissant de ce dernier. La seconde partie de notre publiée dans Epilepsia (Alvarez et al., 2012) s'est portée sur les facteurs pronostiques de l'état de mal et plus précisément sur le rôle joué par les comorbidités. En utilisant la même base de données, nous avons pu démontrer que le pronostique d'un état de mal est très majoritairement influencé par l'étiologie et l'âge et que les comorbidités ne jouent qu'un rôle marginal. La présence de comorbidités n'impliquant pas forcément une mauvaise issue, la fragilité de certains patients ne doit pas dissuader les cliniciens à traiter adéquatement ces patients souffrant d'une condition aussi sévère qu'un état de mal épileptique.
Resumo:
La Bible est l'un des plus fabuleux trésors d'histoires de l'humanité. Car depuis la nuit des temps, les croyants racontent. Mais pas n'importe quoi. Longuement façonnés dans l'oralité, patiemment rédigés, les récits bibliques obéissent à de subtiles règles de composition. Derrière les histoires apparemment naives se cache la fine stratégie d'un narrateur. Grâce à ses qualités pédagogiques, le livre de Daniel Marguerat et Yvan Bourquin s'est imposé comme un manuel de référence pour l'initiation à l'analyse narrative des textes bibliques. Il a été traduit en plusieurs langue. Pour cette 4e édition, l'étude de l'intrigue et de la construction des personnages a été renouvelée. Avec clarté, ses auteurs ont aménagé un parcours qui permet de découvrir les outils de l'analyse narrative, d'étudier leur application, d'évaluer leur efficacité. Toute la magie de la lecture biblique s'en trouve éclairée.
Resumo:
Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.
Resumo:
Le mycophénolate mofétil est un immunosuppresseur, utilisé en transplantation d'organes solides depuis 1993. Il agit par inhibition de la synthèse de novo des bases puriques, voie essentielle permettant la prolifération des lymphocytes B et T. Des mécanismes immunologiques impliquant les lymphocytes interviennent dans un bon nombre de glomérulopathies primitives ou associées à des maladies auto-immunes systémiques. il a paru ainsi logique de prescrire ce médicament dans ces maladies où les traitements immunosuppresseurs classiques se caractérisent par une efficacité imprévisible et une toxicité souvent importante. Les résultats thérapeutiques les plus convaincants ont été obtenus dans les néphrites lupiques prolifératives et les vasculites pauci-immunes.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.
Resumo:
Cette revue évoque principalement les nouveautés dans le traitement de l'hépatite B chronique, les problèmes de résistance qui émergent et les recommandations internationales pour le suivi du patient. Sont également discutées la prophylaxie postexposition de l'hépatite A, la durée de traitement des hépatites C chroniques, la vaccination contre l'hépatite E, ainsi qu'une étude contrôlée qui a évalué l'efficacité de la pioglitazone dans la stéatohépatite non alcoolique. Des études utiles pour la pratique clinique concernant l'hépatite alcoolique, les effets secondaires hépatiques du paracétamol à dose thérapeutique et la révision des critères diagnostiques et de la prise en charge du syndrome hépato-rénal sont également discutés. This review highlights new treatment options in chronic hepatitis B, issues related to antiviral resistance and current recommendations for the monitoring of patients on treatment. We also discuss post-exposure prophylaxis of hepatitis A, treatment duration in chronic hepatitis C and recent studies exploring vaccination against hepatitis E and pioglitazone for nonalcoholic steatohepatitis. Finally, we will briefly comment new findings in alcoholic hepatitis as well as acetaminophen hepatotoxicity and summarize revised criteria for the diagnosis and management of hepatorenal syndrome
Resumo:
RÉSUMÉ L'exercice est utilisé dans le traitement de la lombalgie depuis plus de cent ans. La recherche dans ce domaine a commencé au milieu du XXème siècle puis s'est développée exponentiellement jusqu'à nos jours. La première étude de cette thèse a eu pour but de passer en revue cette abondante littérature scientifique. Il en est ressorti que l'exercice est un moyen efficace de prévention primaire et secondaire de la lombalgie. En tant que modalité de traitement, l'exercice permet de diminuer l'incapacité et la douleur et d'améliorer la condition physique et le statut professionnel des patients lombalgiques subaigus et chroniques. Parmi les caractéristiques de l'exercice, la supervision est essentielle. Des investigations ultérieures sont nécessaires afin d'identifier des sous-groupes de patients répondant favorablement à d'autres caractéristiques de l'exercice. L'exercice est souvent utilisé dans l'optique de maintenir les résultats obtenus à la suite d'un traitement, bien que peu d'études s'y soient penchées. La deuxième partie de cette thèse a eu pour objectifs d'évaluer l'efficacité d'un programme d'exercice (PE) suivi par des patients lombalgiques chroniques ayant complété une restauration fonctionnelle multidisciplinaire (RFM), en comparaison avec le suivi classique (SC) consistant simplement à encourager les patients à adopter un quotidien aussi actif que possible par la suite. Les résultats ont montré que les améliorations obtenues au terme de RFM étaient maintenues par les deux groupes à un an de suivi. Bien qu'aucune différence n'ait été obtenue entre les deux groupes, seul le groupe PE améliorait significativement l'incapacité et l'endurance isométrique des muscles du tronc. Une analyse économique a ensuite été réalisée afin d'évaluer la rentabilité de PE. L'évaluation de la qualité de vie des patients au terme de RFM et à un an de suivi permettait d'estimer les années de vie ajustées par leur qualité (QALYs) gagnées par chaque groupe. Les coûts directs (visites chez le médecin, spécialiste, physio, autres) et indirects (jours d'absence au travail) étaient estimés avant RFM et à un an de suivi à l'aide d'un agenda. Aucune différence significative n'était obtenue entre les groupes. Une mince différence de QALYs en faveur de PE ne se traduisait néanmoins pas en bénéfices mesurables. La recherche future devrait s'attacher à identifier un ou des sous-groupe(s) de patients pour lesquels SC ne permet pas de maintenir à long terme les améliorations obtenues au terme de RFM, et pour lesquels l'efficacité thérapeutique et la rentabilité économique de PE pourraient être accrues. ABSTRACT Exercise is used to treat low back pain for over a hundred years. Research in this area began in the mid-twentieth century and then grew exponentially until nowadays. The first study of this thesis was aimed to review this abundant scientific literature. It showed that exercise is effective in the primary and secondary prevention of low back pain. As a modality of treatment, exercise can reduce disability and pain and improve physical fitness and professional status of patients with subacute and chronic low back pain. Among different exercise characteristics, supervision is essential. Further investigations are needed to identify subgroups of patients responding positively to other characteristics of exercise. Exercise is often used as a post-treatment modality in order to maintain results over time, although only a few studies addressed this issue directly. The purpose of the second part of this thesis was to evaluate the effectiveness of an exercise program (EP) for patients with chronic low back pain who completed a functional multidisciplinary rehabilitation (FMR), compared to the routine follow-up (RF) which simply consisted of encouraging patients to adopt an active daily life thereafter. The results showed that improvements obtained at the end of FMR were maintained by both groups at one year follow-up. Although no difference was obtained between both groups, only the EP group significantly improved disability and isometric endurance of trunk muscles. An economic analysis was then carried out to assess the cost-effectiveness of EP. Based on the evaluation of patients' quality of life after FMR and at one year follow-up, an estimation of adjusted life years for their quality (QALYs) gained by each group was done. Direct costs (physician, specialist, physiotherapist, other therapists visits) and indirect costs (days off work) were measured before FMR and at one year follow-up using a cost diary. No significant difference was obtained between both groups. A slight difference in QALYs in favour of EP did yet not translate into measurable benefits. Future research should focus on identifying subgroups of patients for which RF is insufficient to reach long-term improvements after FMR, and for which the therapeutic effectiveness and cost-effectiveness of EP could be increased.
Resumo:
Rapport de synthèse: Les rendez-vous manqués représentent un problème important, tant du point de vue de la santé des patients que du point de vue économique. Pourtant peu d'études se sont penchées sur le sujet, particulièrement dans une population d'adolescents. Les buts de cette étude étaient de caractériser les adolescents qui sont à risque de manquer ou d'annuler leurs rendez-vous dans une clinique ambulatoire de santé pour adolescents, de comparer les taux des rendez-vous manqués et annulés entre les différents intervenants et d'estimer l'efficacité d'une politique de taxation des rendez-vous manqués non excusés. Finalement, un modèle multi-niveau markovien a été utilisé afin de prédire le risque de manquer un rendez-vous. Ce modèle tient compte du passé de l'adolescent en matière de rendez-vous manqués et d'autres covariables et permet de grouper les individus ayant un comportement semblable. On peut ensuite prédire pour chaque groupe le risque de manquer ou annuler et les covariables influençant significativement ce risque. Entre 1999 et 2006, 32816 rendez-vous fixés pour 3577 patients âgés de 12 à 20 ans ont été analysés. Le taux de rendez-vous manqués était de 11.8%, alors que 10.9% avaient été annulés. Soixante pour cent des patients n'ont pas manqué un seul de leur rendezvous et 14% en ont manqué plus de 25%. Nous avons pu mettre en évidence plusieurs variables associées de manière statistiquement significative avec les taux de rendez-vous manqués et d'annulations (genre, âge, heure, jour de la semaine, intervenant thérapeutique). Le comportement des filles peut être catégorisé en 2 groupes. Le premier groupe inclut les diagnostiques psychiatriques et de trouble du comportement alimentaire, le risque de manquer dans ce groupe étant faible et associé au fait d'avoir précédemment manqué un rendez-vous et au délai du rendez-vous. Les autres diagnostiques chez les filles sont associés à un second groupe qui montre un risque plus élevé de manquer un rendez-vous et qui est associé à l'intervenant, au fait d'avoir précédemment manqué ou annulé le dernier rendez-vous et au délai du rendez-vous. Les garçons ont tous globalement un comportement similaire concernant les rendez-vous manqués. Le diagnostic au sein de ce groupe influence le risque de manquer, tout comme le fait d'avoir précédemment manqué ou annulé un rendez-vous, le délai du rendez-vous et l'âge du patient. L'introduction de la politique de taxation des rendez-vous non excusés n'a pas montré de différence significative des tàux de rendez-vous manqués, cependant cette mesure a permis une augmentation du taux d'annulations. En conclusion, les taux de présence des adolescents à leurs rendez-vous sont dépendants de facteurs divers. Et, même si les adolescents sont une population à risque concernant les rendez-vous manqués, la majorité d'entre eux ne manquent aucun de leurs rendez-vous, ceci étant vrai pour les deux sexes. Etudier les rendez-vous manqués et les adolescents qui sont à risque de rater leur rendez-vous est un pas nécessaire vers le contrôle de ce phénomène. Par ailleurs, les moyens de contrôle concernant les rendez-vous manqués devraient cibler les patients ayant déjà manqué un rendez-vous. La taxation des rendez-vous manqués permet d'augmenter les rendez-vous annulés, ce qui a l'avantage de permettre de fixer un nouveau rendez-vous et, de ce fait, d'améliorer la continuité des soins.
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
La comparaison des fécondités entre reines de sociétés expérimentales monogynes et polygynes de la fourmi d'Argentine (lridomyrmex humilis) nous a permis de montrer que les reines des sociétés monogynes pondent significativement plus d'oeufs que les reines des sociétés polygynes. Dans ce contexte nous n'avons pas pu mettre en évidence de dominance ou de hiérarchie stricte entre les reines. Deux hypothèses ont été émises pour expliquer la diminution de la fécondité qui affecte toutes les reines en sociétés polygynes: -. inhibition mutuelle entre reines, -. coordination et efficacité plus faible en sociétés polygynes. Afin d'intégrer la polygynie dans un cadre évolutif l'hypothèse du "mutualisme" est proposée comme alternative à l'hypothèse de la sélection de parentèle (kin selection).
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.