237 resultados para gestion des connaissances
Resumo:
In this thesis, we study the use of prediction markets for technology assessment. We particularly focus on their ability to assess complex issues, the design constraints required for such applications and their efficacy compared to traditional techniques. To achieve this, we followed a design science research paradigm, iteratively developing, instantiating, evaluating and refining the design of our artifacts. This allowed us to make multiple contributions, both practical and theoretical. We first showed that prediction markets are adequate for properly assessing complex issues. We also developed a typology of design factors and design propositions for using these markets in a technology assessment context. Then, we showed that they are able to solve some issues related to the R&D portfolio management process and we proposed a roadmap for their implementation. Finally, by comparing the instantiation and the results of a multi-criteria decision method and a prediction market, we showed that the latter are more efficient, while offering similar results. We also proposed a framework for comparing forecasting methods, to identify the constraints based on contingency factors. In conclusion, our research opens a new field of application of prediction markets and should help hasten their adoption by enterprises. Résumé français: Dans cette thèse, nous étudions l'utilisation de marchés de prédictions pour l'évaluation de nouvelles technologies. Nous nous intéressons plus particulièrement aux capacités des marchés de prédictions à évaluer des problématiques complexes, aux contraintes de conception pour une telle utilisation et à leur efficacité par rapport à des techniques traditionnelles. Pour ce faire, nous avons suivi une approche Design Science, développant itérativement plusieurs prototypes, les instanciant, puis les évaluant avant d'en raffiner la conception. Ceci nous a permis de faire de multiples contributions tant pratiques que théoriques. Nous avons tout d'abord montré que les marchés de prédictions étaient adaptés pour correctement apprécier des problématiques complexes. Nous avons également développé une typologie de facteurs de conception ainsi que des propositions de conception pour l'utilisation de ces marchés dans des contextes d'évaluation technologique. Ensuite, nous avons montré que ces marchés pouvaient résoudre une partie des problèmes liés à la gestion des portes-feuille de projets de recherche et développement et proposons une feuille de route pour leur mise en oeuvre. Finalement, en comparant la mise en oeuvre et les résultats d'une méthode de décision multi-critère et d'un marché de prédiction, nous avons montré que ces derniers étaient plus efficaces, tout en offrant des résultats semblables. Nous proposons également un cadre de comparaison des méthodes d'évaluation technologiques, permettant de cerner au mieux les besoins en fonction de facteurs de contingence. En conclusion, notre recherche ouvre un nouveau champ d'application des marchés de prédiction et devrait permettre d'accélérer leur adoption par les entreprises.
Resumo:
La ponction lombaire (PL) est un geste fréquent en médecine interne, en particulier dans les services d'urgences. Dans cet article, nous présentons une description détaillée de ce geste en donnant quelques conseils pratiques pour sa réussite, la gestion des cas difficiles et la prévention des complications. Nous abordons aussi des questions pratiques comme l'indication à une imagerie cérébrale avant le geste et la mobilisation après la PL. La connaissance des indications, des détails de la procédure ainsi que des complications potentielles et de leur prise en charge constitue la base pour une information complète à donner au patient. Lumbar puncture (LP) is a procedure frequently performed by internists. The aim of this article is to describe in detail the procedure, to give some practical advices to always succeed in doing a lumbar puncture and to discuss the most frequent complications, how to prevent them and how to treat them. We will also answer some frequently asked questions, such as indications to perform neuroimaging before a lumbar puncture, or patient mobilisation after LP. Knowledge of these points is key to give a complete information to the patients and obtain an informed consent
Resumo:
Commençant par la compréhension du processus de prise de décisions en politique économique, puis par l'étude de la participation des Acteurs Sociaux (AS), pour aboutir à l'éclaircissement de leur rôle en politique économique. Le choix des AS correspond aux facteurs productifs :¦? Travail : Syndicat, Confédérations¦? Capital : Patronat, Groupes économiques¦? Ressources naturelles - inclus l'Economie clandestine¦? Esprit d'entreprise dans tous les AS¦Méthode : analyse institutionnelle, AS comme protagonistes. Contexte latino-américain et mondial (chapitre I), relation avec les Politiques (chapitre II), identification des positionnements face aux Politiques économiques (chapitre III). Etude sur deux périodes :¦1) Front National (FN) (1958-1986). Pacte de partis traditionnels pour l'obtention (non accomplie) de la paix et du développement. Objectif acquis via des politiques adéquates mais sans amélioration du domaine social (politique de revenu absente).¦En conséquence, développement des Cartels surpassant l'Intégration Andine. Echec des tentatives d'Ouverture précoce grâce aux Centrales syndicales (1977) aux Organisations patronales (1981), confirmant le bipartisme; crise de la dette sans cessations de paiements, ni décennie perdue (Colombie) ; développement des AS profitant d'absence de partis d'opposition.¦2) L'Ouverture (1989-2000) : Nouvelle Constitution avec amplifications de l'Etat, réformes financière, des échanges, sans sélectivité ni gradualité demandées par les AS. Emergence du blanchiment.¦Montée en puissance des Groupes économiques au détriment des Organisations patronales, (excepté les industriels), perte du lobbying syndical. Malgré des résultats positifs macro-économiques, les taux de chômage, secteur informel, et pauvreté, situent¦le pays au 2eme rang en concentration du revenu en Amérique latine et au 5eme rang mondial.¦Conclusion : les AS se sont mis en avant dans l'inflation (30% à 8%) et la dévaluation. Par contre, les taux d'intérêt et de change ont provoqué le crédit clandestin et la réévaluation avec ouverture aux importations ; pas de succès non plus sur le déficit fiscal ni la gestion des booms (café, drogues). La plupart des Politiques ont donc été décidées d'après la Banque centrale et le Ministère des finances confirmant la primauté du gouvernement sur les AS durant la période analysée.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Etat des connaissances: Les Accidents vasculaires cérébraux (AVC) sévères sont une cause importante de mortalité et de handicap en Suisse. Les buts de cette étude sont de déterminer les caractéristiques des patients avec un AVC à présentation initiale sévère "severely presenting", ainsi que d'identifier les facteurs prédicteurs en phase aigüe et subaigüe d'un devenir favorable chez ces patients. Methodologie: En utilisant le registre des AVC "Acute STroke Registry and Analysis of Lausanne (ASTRAL), nous avons comparé tous les patients avec un AVC "à présentation sévère", defini comme un score National Institute of Health Stroke Scale (NIHSS) > 20 à l'admission aux urgences, avec tous les autres patients du registre. Dans une analyse statistique multivariée, les associations avec les caractéristiques démographiques, cliniques, pathophysiologiques, métaboliques et radiologiques des patients on été déterminées. Dans un deuxième temps, nous avons analysé les facteurs prédicteurs d'un devenir favorable à 3 mois (modified Rankin scale (mRS) <3) dans ce groupe d'AVC à présentation sévère. Resultats: Parmi les 1 '915 patients consécutifs, 243 (12.7%) présentaient un AVC rejoignant la définition de sévère. Ceux-cis étaient associés de manière significative avec un méchanisme ischémique cardio-embolique (OR=1.74 / 95% CI 1.19 - 2.54), un début inconnu de la Symptomatologie (OR=2.35 / 95% CI 1.14 - 4.83), avaient plus de trouvailles d'origine ischémique aigüe lors de l'imagerie dJentrée (la majorité sont des CT-scan, OR=2.65 / 95% CI 1.79 - 3.92), plus d'occlusions dans l'imagerie vasculaire d'admission (OR=27.01 / 95% CI 11.5 - 62.9), moins d'anciens infarctus cérébraux sur l'imagerie (OR=0.43 / 95% 0.26¬0.72), un taux d'haemoglobine plus bas en g/1 (OR=0.97 / 95% CI 0.96 - 0.99), un taux de leucocytes plus élevé par 1000 cells/1 (OR=1.05 / 95%CI 1.00 - 1.11). parmi les 68 (28%) patients avec un devenir favorable malgré un AVC initialement sévère, leur évolution favorable à été associée avec un âge plus jeune (OR=0.94 / 95% CI 0.92 - 0.97), la présence d'évenements cérébrovasculaires antécédants (OR=3.00 / 95% CI 1.01 - 8.97), un traitement hypolipémiant déjà présent (OR= 3.82 / 95% CI 1.34 - 10.90), une température corporelle d'admission plus basse (0R=0.43 1 95% CI 0.23 - 0.78), une concentration subaigüe de glucose plus basse (OR=0.74 1 95% CI 0.56 - 0.97), et une recanalisation spontanée ou par thrombolyse à 24h (OR= 4.51 1 95%CI 1.96- 10.41). Conclusion: les AVC à présentation initiale severe sont associés à des facteurs prédicteurs cliniques, radiologiques, et métaboliques multiples, dont certains sont modifiables. Les facteurs prédicteurs des 28% de patients avec un devenir favorable en dépit d'un AVC intitialement sévère sont un pré-traitement par hypolipémiants, une temperature corporelle plus basse à l'admission, une glycémie plus basse à 24heures et la recanalisation artérielle.
Resumo:
En 36 chapitres, concis et efficaces, cet ouvrage propose des repères pour la prise en charge des patients adultes en médecine générale et en médecine interne ambulatoire. Les thèmes ont été choisis en fonction des besoins exprimés par les médecins en formation. Chaque chapitre propose une stratégie diagnostique et thérapeutique dans une perspective d'usage rationnel des ressources du système de santé, en tenant compte des données les plus récentes de la médecine basée sur les preuves. Ce livre confirme que la pratique de la médecine reste un subtil assemblage des connaissances scientifiques, de l'expertise clinique et des valeurs du patient.
Resumo:
La première traduction en français de « The Varieties of Religious Experience » fut publiée en 1906 et elle connut aussitôt un très grand retentissement. Dans cet ouvrage, William James affirme: « D'un point de vue tout psychologique, la religion est une fonction éternelle de l'esprit humain ». Toutefois, caractériser la religion par une fonction si fondamentale, sous-jacente à tous les systèmes de croyances, ne conduit pas James à porter un regard dévalorisant sur la multiplicité des formes religieuses. Au contraire, il y voit l'expression de la variété des combinaisons possibles du religieux avec la vie psychique sous ses différents aspects. Ce livre a pour but non seulement de relire William James un siècle après la publication de Varieties, mais aussi de préciser, sur la base des connaissances actuelles, quelles sont les fonctions psychologiques du religieux.
Resumo:
Six salariés sur dix ont un travail stressant. Comment fonctionne le stress ? Quels sont ses effets ? Dominique Chouanière présente l'état des connaissances scientifiques. Elle souligne qu'il faut développer la prévention à la source en identifiant les facteurs collectifs liés à l'organisation du travail.
Resumo:
Summary Artificial radionuclides were released in the environment during the atmospheric nuclear weapon tests and after accidental events involving nuclear industries. As a primary receptor of the deposition, the soil is a very sensitive compartment and understanding the interaction and migration of radionuclides within soils allows the development of scenario for the contamination risk of the population and of the environment. Most available field studies on radionuclides in soils only concern one or two isotopes, mostly 137Cs, and few physico-chemical soil parameters. The purpose of this study was a broader understanding of the radioecology of an Alpine valley. In a first part, we aimed to describe the depth distribution of 137Cs, 90Sr, 239+240Pu, and 241Am within different alpine soils and to identify some stable elements as indicators for accumulating layers. In the central part of the study, the goal was to investigate the repartition of ^Sr and 239Pu between the truly dissolved fraction and the colloidal fraction of the soil solutions and to identify the nature of colloids involved in the adsorption of ^Sr and 239Pu. These results were integrated in an "advection- sorption" transport model seeking to explain the migration of 239Pu and 90Sr within the soils and to assess the importance of colloidal transport for these two isotopes. A further aspect studied was the role of the competition between the radioisotopes (137Cs and 90Sr) and their stable chemical analogues (K and Ca) with respect to plant uptake by different plant species. The results on the depth distribution within the soils showed that 137Cs was mostly retained in the topsoil, to the exception of an organic-rich soil (Histosol 2) receiving important surface runoff, where migration down to a depth of 30 cm was observed. 137Cs depth distribution within the soils was similar to unsupported 210Pb depth distribution. The plant uptake of 137Cs clearly depended on the concentration of exchangeable potassium in the soils. Moreover, we showed that the 137Cs uptake by certain species of the taxonomic orders Poales and Rosales was more sensitive to the increase in exchangeable Κ compared to other orders. Strontium-90 was much more mobile in the soils than 137Cs and depth migration and accumulation in specific AI- and Fe-rich layers were found down to 30 cm. Copper and Ni showed accumulations in these same layers, indicating their potential to be used as indicators for the migration of ^Sr within the soils. In addition, we observed a 90Sr activity peak in the topsoil that can be attributable to recycling of 90Sr by plant uptake. We demonstrated for the first time that a part of 90Sr (at least 40%) was associated with the colloids in organic-rich soil solutions. Therefore, we predict a significant effect of the colloidal migration of ^Sr in organic-rich soil solutions. The plant uptake results for 90Sr indicated a phylogenetic effect between Non-Eudicot and Eudicots: the order Poales concentrating much less 90Sr than Eudicots do. Moreover, we were able to demonstrate that the sensitivity of the 90Sr uptake by 5 different Alpine plant species to the amount of exchangeable Ca was species-independent. Plutonium and 241Am accumulated in the second layer of all soils and only a slight migration deeper than 20 cm was observed. Plutonium and 241Am showed a similar depth distribution in the soils. The model results suggested that the present day migration of 239Pu was very slow and that the uptake by plants was negligible. 239Pu activities between 0.01 to 0.08 mBq/L were measured in the bulk soil solutions. Migration of 239Pu with the soil solution is dominated by colloidal transport. We reported strong evidences that humic substances were responsible of the sorption of 239Pu to the colloidal fraction of the soil solutions. This was reflected by the strong correlation between 239Pu concentrations and the content of (colloidal) organic matter in the soil solution. Résumé Certains radioéléments artificiels ont été disséminés dans l'environnement suite aux essais atmosphériques de bombes nucléaires et suite à des accidents impliquant les industries nucléaires. En tant que récepteur primaire de la déposition, le sol est un compartiment sensible et des connaissances sur les interactions et la migration des radioéléments dans le sol permettent de développer des modèles pour estimer la contamination de la population et de l'environnement. Actuellement, la plupart des études de terrain sur ce sujet concernent uniquement un ou deux radioéléments, surtout le 137Cs et peu d'études intègrent les paramètres du sol pour expliquer la migration des radioéléments. Le but général de cette étude était une compréhension étendue de la radio-écologie d'une vallée alpine. Notre premier objectif était de décrire la distribution en profondeur de 137Cs, ^Sr, 239+240pu et 241Am dans différents sols alpins en relation avec des éléments stables du sol, dans le but d'identifier des éléments stables qui pourraient servir d'indicateurs pour des horizons accumulateurs. L'objectif de la deuxième partie, qui était la partie centrale de l'étude, était d'estimer le pourcentage d'activité sous forme colloïdale du 239Pu et du 90Sr dans les solutions des sols. De plus nous avons déterminé la nature des colloïdes impliqués dans la fixation du ^Sr et 239Pu. Nous avons ensuite intégré ces résultats dans un modèle de transport développé dans le but de décrire la migration du 239Pu et 90Sr dans le sol. Finalement, nous avons étudié l'absorption de 137Cs et 90Sr par les plantes en fonction de l'espèce et de la compétition avec leur élément analogue stable (K et Ca). Les résultats sur la migration en profondeur du 137Cs ont montré que ce radioélément était généralement retenu en surface, à l'exception d'un sol riche en matière organique dans lequel nous avons observé une nette migration en profondeur. Dans tous les sols, la distribution en profondeur du 137Cs était corrélée avec la distribution du 210Pb. L'absorption du 137Cs par les plantes, était dépendante de la concentration en Κ échangeable dans le sol, le potassium étant un compétiteur. De plus, nous avons observé que les espèces ne réagissaient pas de la même manière aux variations de la concentration de Κ échangeable. En effet, les espèces appartenant aux ordres des Poales et des Rosales étaient plus sensibles aux variations de potassium échangeable dans le sol. Dans tous les sols Le 90Sr était beaucoup plus mobile que le 137Cs. En effet, nous avons observé des accumulations de 90Sr dans des horizons riches en Fe et Al jusqu'à 30 cm de profondeur. De plus, le Cu et le Ni montraient des accumulations dans les mêmes horizons que le 90Sr, indiquant qu'il pourrait être possible d'utiliser ces deux éléments comme analogues pour la migration du 90Sr. D'après le modèle développé, le pic de 90Sr dans les premiers centimètres du sol peut être attribué à du recyclage par les plantes. Le 90Sr en solution était principalement sous forme dissoute dans des solutions de sols peu organique (entre 60 et 100% de 90Sr dissous). Par contre, dans des solutions organiques, un important pourcentage de 90Sr (plus de 40%) était associé aux colloïdes. La migration colloïdale du 90Sr peut donc être significative dans des solutions organiques. Comme pour le 137Cs, l'absorption du 90Sr par les plantes dépendait de la concentration de son analogue chimique dans la fraction échangeable du sol. Par contre, les espèces de plantes étudiées avaient la même sensibilité aux variations de la concentration du calcium échangeable. Le plutonium et l'américium étaient accumulés dans le deuxième horizon du sol et nous avons observé seulement une faible migration plus profondément que 20 cm. Selon le modèle, la migration actuelle du plutonium est très lente et l'absorption par les plantes semble négligeable. Nous avons mesuré entre 0.01 et 0.08 mBq/L de 239Pu dans les solutions de sol brutes. La migration du plutonium par la solution du sol est due principalement aux colloïdes, probablement de nature humique. Résumé grand public Dans les années 1950 à 1960, l'environnement a été contaminé par des éléments radioactifs (radioéléments) artificiels provenant des essais des armes atomiques et de l'industrie nucléaire. En effet, durant ces années, les premiers essais de bombes atomiques se faisaient dans l'atmosphère, libérant de grandes quantités d'éléments radioactifs. De plus certains accidents impliquant l'industrie nucléaire civile ont contribué à la dissémination d'éléments radioactifs dans l'environnement. Ce fut par exemple le cas de l'accident de la centrale atomique de Tchernobyl en 1986 qui a causé une importante contamination d'une grande partie de l'Europe par le 137Cs. Lorsqu'ils sont libérés dans l'atmosphère, les radioéléments sont dispersés et transportés par les courants atmosphériques, puis peuvent être déposés dans l'environnement, principalement par les précipitations. Une fois déposés sur le sol, les radioéléments vont interagir avec les composants du sol et migrer plus ou moins vite. La connaissance des interactions des éléments radioactifs avec le sol est donc importante pour prédire les risques de contamination de l'environnement et de l'homme. Le but général de ce travail était d'évaluer la migration de différents éléments radioactifs (césium-137, strontium-90, plutonium et américium-241) à travers le sol. Nous avons choisi un site d'étude en milieu alpin (Val Piora, Tessin, Suisse), contaminé en radioéléments principalement par les retombées de l'accident de Tchernobyl et des essais atmosphériques de bombes atomiques. Dans un premier temps, nous avons caractérisé la distribution en profondeur des éléments radioactifs dans le sol et l'avons comparée à divers éléments stables. Cette comparaison nous a permit de remarquer que le cuivre et le nickel s'accumulaient dans les mêmes horizons du sol que le strontium-90 et pourraient donc être utilisés comme analogue pour la migration du strontium-90 dans les sols. Dans la plupart des sols étudiés, la migration du césium-137, du plutonium et de l'américium-241 était lente et ces radioéléments étaient donc accumulés dans les premiers centimètres du sol. Par contre, le strontium-90 a migré beaucoup plus rapidement que les autres radioéléments si bien qu'on observe des accumulations de strontium-90 à plus de 30 cm de profondeur. Les radioéléments migrent dans la solution du sol soit sous forme dissoute, soit sous forme colloïdale, c'est-à-dire associés à des particules de diamètre < Ιμηι. Cette association avec des colloïdes permet à des radioéléments peu solubles, comme le plutonium, de migrer plus rapidement qu'attendu. Nous avons voulu savoir quelle était la part de strontium-90 et plutonium associés à des colloïdes dans la solution du sol. Les résultats ont montré que le plutonium en solution était principalement associé à des colloïdes de type organique. Quant au strontium-90, ce dernier était en partie associé à des colloïdes dans des solutions de sol riches en matière organique, par contre, il était principalement sous forme dissoute dans les solutions de sol peu organiques. L'absorption de radioéléments par les plantes représente une voie importante pour le transfert vers la chaîne alimentaire, par conséquent pour la contamination de l'homme. Nous avons donc étudié le transfert du césium-137 et du strontium-90 de plusieurs sols vers différentes espèces de plantes. Les résultats ont montré que l'absorption des radioéléments par les plantes était liée à la concentration de leur analogue chimique (calcium pour le strontium-90 et potassium pour le césium- 137) dans la fraction échangeable du sol. De plus certaines espèces de plantes accumulent significativement moins de strontium-90.
Resumo:
A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.
Resumo:
Enjeu et contexte de la recherche La dégénérescence lobaire fronto-temporale (DLFT) est une pathologie neurodégénérative aussi fréquente que la maladie d'Alzheimer parmi les adultes de moins de 65 ans. Elle recouvre une constellation de syndromes neuropsychiatriques et moteurs dont les caractéristiques cliniques et anatomo-pathologiques se recoupent partiellement. La plupart des cas de démence sémantique ne présentent pas de troubles moteurs et révèlent à l'autopsie des lésions ubiquitine-positives. Son association à un syndrome cortico-basal et à une tauopathie 4R est donc très inhabituelle. Le cas que nous présentons est le premier à disposer d'une description clinique complète, tant sur le plan cognitif que moteur, et d'une analyse génétique et histopathologique. Résumé de l'article Il s'agit d'un homme de 57 ans, sans antécédents familiaux, présentant une démence sémantique accompagnée de symptômes inhabituels dans ce contexte, tels qu'une dysfonction exécutive et en mémoire épisodique, une désorientation spatiale et une dyscalculie. Le déclin physique et cognitif fut rapidement progressif. Une année et demie plus tard, il développait en effet des symptômes moteurs compatibles initialement avec un syndrome de Richardson, puis avec un syndrome cortico-basal. Son décès survint à l'âge de 60 ans des suites d'une pneumonie sur broncho-aspiration. L'autopsie cérébrale mit en évidence une perte neuronale et de nombreuses lésions tau-4R-positives dans les lobes frontaux, pariétaux et temporaux, les ganglions de la base et le tronc cérébral. Aucune mutation pathologique n'a été décelée dans le gène MAPT (microtubule-associated protein tau). L'ensemble de ces éléments sont discutés dans le cadre des connaissances actuelles sur la DLFT. Conclusions et perspectives Ce cas illustre le recoupement important des différents syndromes de la DLFT, parfois appelée le « complexe de Pick ». De plus, la démence sémantique pourrait s'avérer cliniquement moins homogène que prévu. Les définitions actuelles de la démence sémantique omettent la description des symptômes cognitifs extra-sémantiques malgré l'accumulation de preuves de leur existence. La faible prévalence de la démence sémantique, ainsi que des différences dans les examens neuropsychologiques, peuvent expliquer en partie la raison de cette omission. La variabilité histopathologique de chaque phénotype de DLFT peut également induire des différences dans leur expression clinique. Dans un domaine aussi mouvant que la DLFT, la co- occurrence ou la succession de plusieurs syndromes cliniques est en outre probablement la règle plutôt que l'exception.