473 resultados para Période de retour
Resumo:
1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.
Resumo:
Introduction¦La gestion des rendez-vous (RDV) et des flux des consultations en médecine libérale sont¦primordiaux. Il n'existe actuellement que peu de données à ce sujet et chaque médecin gère ses RDV¦selon sa convenance. Le but de cette étude est de décrire de manière analytique et prospective la¦gestion des RDV chez un groupe de pédiatres généralistes installés en cabinet. Ainsi elle pourrait¦servir de base pour des formations post graduées, des cours sur la pratique libérale de médecine de¦premier recours ou encore lors d'ouvertures de cabinets médicaux.¦Méthode¦Tous les pédiatres généralistes avec activité de premier recours du canton de Neuchâtel ont été¦invités à participer à l'étude. Leurs parcours professionnels ont été recensés. Pour chaque¦consultation, le délai entre l'heure d'appel téléphonique par les parents et celle du RDV obtenu le jour¦même (RDV «du jour», RDVdJ), le temps d'attente au cabinet, sa durée, l'âge, le sexe et la nationalité du patient, les diagnostics et les traitements ont été consignés. Le nombre et la durée des¦consultations téléphoniques par les pédiatres ont été enregistrés. La période d'enquête a porté du¦lundi 7 au vendredi 11 février 2011. Parallèlement, l'activité pédiatrique aux urgences de l'Hôpital¦neuchâtelois (HNE) a été recensée du 7 au 14 février 2011, nuits et week-end inclus.¦Cette étude a été acceptée par la Commission cantonale vaudoise d'éthique de la recherche sur l'être¦humain.¦Résultats¦Sur les 24 pédiatres praticiens avec activité de premier recours installés dans le canton de Neuchâtel,¦18 ont accepté de collaborer. 1645 consultations ont été réalisées dans les cabinets, 271 au sein de¦l'HNE et 500 chez les pédiatres n'ayant pas participé à l'étude. Ainsi 2416 consultations pédiatriques¦ont été effectuées pendant les 7 jours d'analyse dans les principales structures neuchâteloises de¦soins pédiatriques.¦Sur 1645 consultations, 697 étaient des RDVdJ (médiane 42%, extrêmes 26%-57%), 880 (54%, 42%-¦69%) avaient un RDV prévu (RDVP), c'est-à dire fixé avant le jour de la consultation, 61 (4%, 0%-¦16%) étaient des RDV pressants (RDVpress), ce qui signifie que le patient s'était présenté¦directement au cabinet sans RDV préalable. 902/1645 consultations (55%) concerne des enfants de¦moins de 6 ans. Le recours parental à des RDVdJ ne dépendait pas de l'âge du patient. La plupart¦des consultations était due à un syndrome infectieux aigu (42%).¦La couverture par les pédiatres praticiens était très variable (5-14 actifs simultanément par ½¦journée), l'HNE permettant certainement d'assurer les prises en charge pédiatriques en l'absence des¦praticiens.¦Ce travail a montré une grande variabilité des différents paramètres d'activité entre les pédiatres. Il¦donne une image synthétique, quoi que partielle puisque le volet diagnostic et traitement n'ont pas été abordés, des soins pédiatriques ambulatoires dans un canton romand. Il n'a pas permis de définir un style univoque de gestion des RDV.
Resumo:
Résumé Introduction: La plupart des études disponibles sur la chirurgie colorectale par laparoscopie concernent des patients hautement sélectionnés. Le but de cette étude est d'analyser les résultats à court et à long terme de l'ensemble des patients traités dans un service de chirurgie générale. Méthodes: Il s'agit d'une analyse rétrospective d'un registre prospectif interne au service, dans lequel tous les patients consécutifs opérés pour la première fois du colon et du rectum entre mars 1993 et décembre 1997 ont été enregistrés. Les informations concernant le suivi ont été collectées par questionnaire. Résultats: Un total de 187 patients ont été opérés par laparoscopie et 215 patients par chirurgie ouverte durant la période d'étude. Les informations concernant le suivi ont pu être collectées dans 95% des cas avec une évolution de 1-107 mois (médiane 59 mois), respectivement de 1-104 mois (médiane 53 mois). Une conversion fut nécessaire dans 28 cas (15%) mais ceux-ci restent inclus dans le groupe laparoscopie pour l'analyse par intention de traitement. Dans le groupe laparoscopie, les opérations ont duré plus longtemps (205 vs 150 min, p<0.001) mais l'hospitalisation a été plus courte (8 vs 13 jours, p<0.001). La reprise du transit a été plus rapide après laparoscopie, mais uniquement après intervention sur le colon gauche (3 vs 4 jours, p<0.01). Cependant, la sélection préopératoire (nombre plus élevé d'urgences et de patients avec un risque anesthésiologique élevé dans le groupe de la chirurgie ouverte) a été favorable à la laparoscopie. Le taux de complications (global ainsi que pour chaque complication chirurgicale) a été similaire dans les deux groupes, avec un taux global de 20% environ. Conclusions: Malgré une sélection favorable des cas, uniquement très peu d'avantages à la laparoscopie sur la chirurgie ouverte ont pu être observés. Abstract Background: Most studies available on laparoscopic colorectal surgery focus on highly selected patient groups. The aim of the present study was to review short- and long-term outcome of everyday patients treated in a general surgery department. Methods: Retrospective review was carried out of a prospective database of all consecutive patients having undergone primary laparoscopic (LAP) or open colorectal surgery between March 1993 and December 1997. Follow-up data were completed via questionnaire. Results: A total of 187 patients underwent LAP resection and 215 patients underwent open surgery. Follow up was complete in 95% with a median of 59 months (range, 1-107 months) and 53 months (range, 1-104 months), respectively. There were 28 conversions (15%) in the LAP group and these remained in the LAP group in an intention-to-treat analysis. The LAP operations lasted significantly longer for all types of resections (205 vs 150 min, P<0.001) and hospital stay was shorter (8 vs 13 days, P<0.001). Recovery of intestinal function was faster in the LAP group, but only after left-sided procedures (3 vs 4days, P<0.01). However, preoperative patient selection (more emergency operations and patients with higher American Society of Anesthesiologists (ASA) score in the open group) had a major influence on these elements and favours the LAP group. Surprisingly, the overall surgical complication rate (including long-term complications such as wound hernia) was 20% in both groups with rates of individual complications also being comparable in both groups. Conclusion: Despite a patient selection favourable to the laparoscopy group, only little advantage in postoperative outcome could be shown for the minimally invasive over the open approach in the everyday patient.
Resumo:
Ce travail se situe au carrefour de la rhétorique, des théories de l'argumentation et de la linguistique du discours : il s'intéresse aux modalités diverses selon lesquelles une émotion peut être sémiotisée par un locuteur, et cela dans le cadre spécifique d'un discours de type argumentatif. Le questionnement vise à reprendre à nouveaux frais le concept rhétorique de pathos et porte, de façon générale, sur les rapports complexes qui unissent l'argumentation, d'une part, et l'émotion, d'autre part. L'hypothèse développée a trait à ce que l'on peut appeler l'argumentabilité des émotions. Les locuteurs ne font pas seulement « appel » à l'émotion dans le but d'accroître l'efficacité d'une argumentation visant à établir le bien-fondé d'une opinion ou l'opportunité d'une action : ils peuvent aussi, dans certains cas, chercher à argumenter pour ou contre l'émotion elle-même. Ils s'efforcent alors de formuler les raisons pour lesquelles il convient ou, au contraire, il ne convient pas d'éprouver cette émotion. La construction de l'émotion est dite « argumentative », dans le sens où l'émotion en vient à constituer l'objet même de l'argumentation : l'effort argumentatif des locuteurs porte moins sur des dispositions à croire et à agir que sur des dispositions à ressentir. Parler de l'« argumentabilité » des émotions, c'est insister sur le fait - essentiel, mais rarement relevé - que les émotions donnent elles aussi prise aux opérations argumentatives que l'on recense traditionnellement (mise en doute quant à la légitimité, justification ou, au contraire, tentative de réfutation). Ce travail ne vise pas seulement à apporter une contribution théorique aux études sur l'argumentation : il entend aussi mettre en pratique l'analyse argumentative sur un corpus de textes. Il s'agit des comptes-rendus écrits des principaux débats parlementaires français relatifs à l'abolition de la peine de mort (1791, 1848, 1908 et 1981). Bien qu'il s'échelonne sur une période de près de deux siècles, ce corpus présente une forte cohésion, dans la mesure où les textes qui le composent traitent d'un même thème et appartiennent à un même genre de discours. Cette cohésion est essentielle, dans la mesure où elle autorise une pratique raisonnée de la comparaison en diachronie : l'enjeu est de décrire l'évolution des stratégies argumentatives à travers le temps. Observé sur une longue durée, le pathos que développent les parlementaires favorables ou au contraire hostiles à l'abolition présente des visages multiples. On cherche à décrire aussi rigoureusement que possible la logique qui, lors de chaque débat, préside à la construction d'émotions comme la peur, la pitié, l'indignation ou encore la honte.
Resumo:
Ce travail consiste en l'analyse et la revue des différentes prises en charge de la pseudarthrose de la diaphyse fémorale dans un groupe nommé « Echantillon CHUV » formé par 16 patients. Les patients ont tous été opérés au Centre Hospitalier Universitaire Vaudois, CHUV, entre 2008 et 2011 pour cure de pseudarthrose. Une présentation succincte des fractures de la diaphyse fémorale ainsi que de la pseudarthrose de la diaphyse fémorale consiste en la première partie du rapport. La deuxième partie est une revue des cas des patients de l'échantillon CHUV. Des paramètres tels que le mode initial de fracture, la durée effective de la pseudarthrose, le nombre de révisions avant la consolidation ou la répartition des pseudarthroses selon leur type font partie des différents éléments caractéristiques répertoriés puis analysés dans cette revue. 25 cures de pseudarthroses sont effectuées sur les 16 patients. Les techniques de fixations les plus utilisées sont la fixation par plaque après réduction ouverte (ORIF, 64%, 16 cures sur 25) et l'enclouage centromédullaire (24%, 6 cures sur 25). L'utilisation de substituts osseux est très souvent complémentaire à la refixation mécanique lors des cures de pseudarthrose (recours à la greffe osseuse dans 72% des cures). Le taux d'union après la première cure de pseudarthrose s'établit à 63% et il monte à 100% après l'ensemble des cures. Le retour à une fonction adéquate du membre inférieur est obtenu chez 14 des 16 patients (1 patient est traité par arthrodèse du genou sur pseudarthrose du tiers distal de la diaphyse fémorale et 1 patient tétraplégique est traité par résection de la tête et du col fémoral sur pseudarthrose du tiers proximal de la diaphyse fémorale). La revue quantifie la durée de l'invalidité causée par la pseudarthrose de la diaphyse fémorale : la longueur totale du traitement avant union est d'au minimum 12 mois pour 75% des patients. 8 patients sur 16 ont un temps avant union supérieur à 20 mois. La pseudarthrose de la diaphyse fémorale doit être considérée comme une complication grave. La localisation au niveau du fémur réduit voire abolit l'autonomie de marche du patient et limite ses activités de la vie quotidienne. Elle entrave le retour au travail et réduit terriblement la qualité de vie pendant souvent plus d'une année. L'ensemble des symptômes ont un effet dévastateur sur la rééducation et peuvent parfois laisser d'importantes séquelles physiques ou psychologiques sur le long terme. Pour ces raisons, le traitement doit être adapté du mieux possible à la pseudarthrose du patient afin d'augmenter les chances de réussite de la cure.
Resumo:
Contexte: Parmi les complications de toute chirurgie, on retrouve l'embolie pulmonaire, dont l'issue est potentiellement fatale. Peu de travaux cependant ont été effectués pour étudier les facteurs de risques associés à une embolie pulmonaire après une chirurgie hépato-biliaire en particulier. Objectif: Le but de notre travail est d'étudier et comparer aux rares résultats existants les facteurs de risque ainsi que les conséquences d'une embolie pulmonaire post- hépatectomie. Les données pourront éventuellement être utilisées pour cibler les patients à risque et améliorer la prévention. Résultats: Le diagnostic d'embolie pulmonaire a été posé chez 24 patients (8%) au CT-scan dans la période post-opératoire. Le délai moyen entre l'opération et le diagnostic était de 5 jours (1-15j). La comparaison des patients du groupe EP (n = 24) au groupe Non-EP (n = 272) montre un BMI médian plus élevé (27 vs 24 kg/m2, p=0.006), un taux plus élevé de résections majeures (71 vs 43%, p=0.01) ainsi qu'une durée opératoire plus longue (310 vs 260 min, p=0.001). La durée totale d'hospitalisation était également supérieure dans le groupe EP (22 vs 11j, p<0.05), de même que la durée de séjour aux soins intensifs (3 vs 1j, p<0.05). La mortalité globale à 90j post-opératoires était de 3.3%, la mortalité du groupe EP étant nulle. Conclusion: Les résultats de cette étude rétrospective ont démontré l'association des embolies pulmonaires post-hépatectomie avec l'obésité, les hépatectomies majeures, ainsi qu'une longue durée d'opération. L'incidence non négligeable des embolies prouve la nécessité d'une prophylaxie thrombo-embolique.
Resumo:
Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.
Resumo:
Summary : During the evolutionary diversification of organisms, similar ecological constraints led to the recurrent appearances of the same traits (phenotypes) in distant lineages, a phenomenon called convergence. In most cases, the genetic origins of the convergent traits remain unknown, but recent studies traced the convergent phenotypes to recurrent alterations of the same gene or, in a few cases, to identical genetic changes. However, these cases remain anecdotal and there is a need for a study system that evolved several times independently and whose genetic determinism is well resolved and straightforward, such as C4 photosynthesis. This adaptation to warm environments, possibly driven by past atmospheric CO2 decreases, consists in a CO2-concentrating pump, created by numerous morphological and biochemical novelties. All genes encoding C4 enzymes already existed in C3 ancestors, and are supposed to have been recruited through gene duplication followed by neo-functionalization, to acquire the cell specific expression pattern and altered kinetic properties that characterize Ca-specific enzymes. These predictions have so far been tested only in species-poor and ecologically marginal C4 dicots. The monocots, and especially the grass family (Poaceae), the most important C4 family in terms of species number, ecological dominance and economical importance, have been largely under-considered as suitable study systems. This thesis aimed at understanding the evolution of the C4 trait in grasses at a molecular level and to use the genetics of C4 photosynthesis to infer the evolutionary history of the C4 phenotype and its driving selective pressures. A molecular phylogeny of grasses and affiliated monocots identified 17 to 18 independent acquisitions of the C4 pathway in the grass family. A relaxed molecular clock was used to date these events and the first C4 evolution was estimated in the Chloridoideae subfamily, between 32-25 million years ago, at a period when atmospheric CO2 abruptly declined. Likelihood models showed that after the COZ decline the probability of evolving the C4 pathway strongly increased, confirming low CO2 as a likely driver of C4 photosynthesis evolution. In order to depict the genetic changes linked to the numerous C4 origins, genes encoding phopshoenolpyruvate carboxylase (PEPC), the key-enzyme responsible for the initial fixation of atmospheric CO2 in the C4 pathway, were isolated from a large sample of C3 and C4 grasses. Phylogenetic analyses were used to reconstruct the evolutionary history of the PEPC multigene family and showed that the evolution of C4-specific PEPC had been driven by positive selection on 21 codons simultaneously in up to eight C4 lineages. These selective pressures led to numerous convergent genetic changes in many different C4 clades, highlighting the repeatability of some evolutionary processes, even at the molecular level. PEPC C4-adaptive changes were traced and used to show multiple appearances of the C, pathway in clades where species tree inferences were unable to differentiate multiple C4 appearances and a single appearance followed by C4 to C3 reversion. Further investigations of genes involved in some of the C4 subtypes only (genes encoding decarboxylating enzymes NADP-malic enzyme and phosphoenolpyruvate carboxykinase) showed that these C4-enzymes also evolved through strong positive selection and underwent parallel genetic changes during the different Ca origins. The adaptive changes on these subtype-specific C4 genes were used to retrace the history of the C4-subtypes phenotypes, which revealed that the evolution of C4-PEPC and C4-decarboxylating enzymes was in several cases disconnected, emphasizing the multiplicity of the C4 trait and the gradual acquisition of the features that create the CO2-pump. Finally, phylogenetic analyses of a gene encoding the Rubisco (the enzyme responsible for the fixation of CO2 into organic compounds in all photosynthetic organisms) showed that C4 evolution switched the selective pressures on this gene. Five codons were recurrently mutated to adapt the enzyme kinetics to the high CO2 concentrations of C4 photosynthetic cells. This knowledge could be used to introgress C4-like Rubisco in C3 crops, which could lead to an increased yield under predicted future high CO2 atmosphere. Globally, the phylogenetic framework adopted during this thesis demonstrated the widespread occurrence of genetic convergence on C4-related enzymes. The genetic traces of C4 photosynthesis evolution allowed reconstructing events that happened during the last 30 million years and proved the usefulness of studying genes directly responsible for phenotype variations when inferring evolutionary history of a given trait. Résumé Durant la diversification évolutive des organismes, des pressions écologiques similaires ont amené à l'apparition récurrente de certains traits (phénotypes) dans des lignées distantes, un phénomène appelé évolution convergente. Dans la plupart des cas, l'origine génétique des traits convergents reste inconnue mais des études récentes ont montré qu'ils étaient dus dans certains cas à des changements répétés du même gène ou, dans de rares cas, à des changements génétiques identiques. Malgré tout, ces cas restent anecdotiques et il y a un réel besoin d'un système d'étude qui ait évolué indépendamment de nombreuses fois et dont le déterminisme génétique soit clairement identifié. La photosynthèse dite en Ça répond à ces critères. Cette adaptation aux environnements chauds, dont l'évolution a pu être encouragé par des baisses passées de la concentration atmosphérique en CO2, est constituée de nombreuses nouveautés morphologiques et biochimiques qui créent une pompe à CO2. La totalité des gènes codant les enzymes Ç4 étaient déjà présents dans les ancêtres C3. Leur recrutement pour la photosynthèse Ç4 est supposé s'être fait par le biais de duplications géniques suivies par une néo-fonctionnalisation pour leur conférer l'expression cellule-spécifique et les propriétés cinétiques qui caractérisent les enzymes C4. Ces prédictions n'ont jusqu'à présent été testées que dans des familles C4 contenant peu d'espèces et ayant un rôle écologique marginal. Les graminées (Poaceae), qui sont la famille C4 la plus importante, tant en termes de nombre d'espèces que de dominance écologique et d'importance économique, ont toujours été considérés comme un système d'étude peu adapté et ont fait le sujet de peu d'investigations évolutives. Le but de cette thèse était de comprendre l'évolution de la photosynthèse en C4 chez les graminées au niveau génétique et d'utiliser les gènes pour inférer l'évolution du phénotype C4 ainsi que les pressions de sélection responsables de son évolution. Une phylogénie moléculaire de la famille des graminées et des monocotylédones apparentés a identifié 17 à 18 acquisitions indépendantes de la photosynthèse chez les graminées. Grâce à une méthode d'horloge moléculaire relâchée, ces évènements ont été datés et la première apparition C4 a été estimée dans la sous-famille des Chloridoideae, il y a 32 à 25 millions d'années, à une période où les concentrations atmosphériques de CO2 ont décliné abruptement. Des modèles de maximum de vraisemblance ont montré qu'à la suite du déclin de CO2, la probabilité d'évoluer la photosynthèse C4 a fortement augmenté, confirmant ainsi qu'une faible concentration de CO2 est une cause potentielle de l'évolution de la photosynthèse C4. Afin d'identifier les mécanismes génétiques responsables des évolutions répétées de la photosynthèse C4, un segment des gènes codant pour la phosphoénolpyruvate carboxylase (PEPC), l'enzyme responsable de la fixation initiale du CO2 atmosphérique chez les plantes C4, ont été séquencés dans une centaine de graminées C3 et C4. Des analyses phylogénétiques ont permis de reconstituer l'histoire évolutive de la famille multigénique des PEPC et ont montré que l'évolution de PEPC spécifiques à la photosynthèse Ça a été causée par de la sélection positive agissant sur 21 codons, et ce simultanément dans huit lignées C4 différentes. Cette sélection positive a conduit à un grand nombre de changements génétiques convergents dans de nombreux clades différents, ce qui illustre la répétabilité de certains phénomènes évolutifs, et ce même au niveau génétique. Les changements sur la PEPC liés au C4 ont été utilisés pour confirmer des évolutions indépendantes du phénotype C4 dans des clades où l'arbre des espèces était incapable de différencier des apparitions indépendantes d'une seule apparition suivie par une réversion de C4 en C3. En considérant des gènes codant des protéines impliquées uniquement dans certains sous-types C4 (deux décarboxylases, l'enzyme malique à NADP et la phosphoénolpyruvate carboxykinase), des études ultérieures ont montré que ces enzymes C4 avaient elles-aussi évolué sous forte sélection positive et subi des changements génétiques parallèles lors des différentes origines de la photosynthèse C4. Les changements adaptatifs sur ces gènes liés seulement à certains sous-types C4 ont été utilisés pour retracer l'histoire des phénotypes de sous-types C4, ce qui a révélé que les caractères formant le trait C4 ont, dans certains cas, évolué de manière déconnectée. Ceci souligne la multiplicité du trait C4 et l'acquisition graduelle de composants participant à la pompe à CO2 qu'est la photosynthèse C4. Finalement, des analyses phylogénétiques des gènes codant pour la Rubisco (l'enzyme responsable de la fixation du CO2 en carbones organiques dans tous les organismes photosynthétiques) ont montré que l'évolution de la photosynthèse Ça a changé les pressions de sélection sur ce gène. Cinq codons ont été mutés de façon répétée afin d'adapter les propriétés cinétiques de la Rubisco aux fortes concentrations de CO2 présentes dans les cellules photosynthétiques des plantes C4. Globalement, l'approche phylogénétique adoptée durant cette thèse de doctorat a permis de démontré des phénomène fréquents de convergence génétique sur les enzymes liées à la photosynthèse C4. Les traces génétiques de l'évolution de la photosynthèse C4 ont permis de reconstituer des évènements qui se sont produits durant les derniers 30 millions d'années et ont prouvé l'utilité d'étudier des gènes directement responsables des variations phénotypiques pour inférer l'histoire évolutive d'un trait donné.
Resumo:
Rapport de synthèse : Le rétinoblastome est la tumeur de l'oeil la plus fréquente chez l'enfant. Un diagnostic précoce est important pour sauver le globe oculaire et la survie du patient. Le but de notre étude est de déterminer l'évolution de l'intervalle diagnostique, c'est-à-dire le délai entre les premiers symptômes et la date du diagnostic officiel du rétinoblastome, sur une période de 40 ans en Suisse. Matériel et méthode : Il s'agit d'une étude rétrospective faite sur 139 patients suisses traités pour rétinoblastome durant trois différentes périodes : (1) 1963-1983 ; (2) 1984-1993 ; et (3) 1994-2004. On compare certaines caractéristiques : le sexe du patient, la latéralité de la maladie, les premiers symptômes, leurs observateurs, l'intervalle diagnostique, l'âge au diagnostic, le stade de la maladie, l'histoire familiale. Résultats : 37 patients (26.6%) ont été traités dans la première période ; 44 (31.7%) dans la période 2 et 58 (41.7%) dans la période 3. L'intervalle diagnostique diminue de façon significative de 6.97 mois dans la période 1 à 3.58 dans la période 2 à 2.25 dans la période 3 pour le total des malades. Ceci reste significatif pour les rétinoblastomes unilatéraux. De plus, dans ce même groupe, on observe une diminution significative des stades avancés de la maladie, groupe E selon Murphree (61.5% dans la période 1 ; 46.7% dans la période 2 et 22.2 % dans la période 3). Lorsque la maladie est bilatérale, les mêmes observations se font de façon un peu moins marquée. Il n'y a aucun patient diagnostiqué au stade E de la maladie en présence d'une anamnèse familiale positive. Leucocorie (48.2%) et strabisme (20.1 %) sont les symptômes les plus fréquents durant les 3 périodes. Les seuls facteurs qui influencent significativement le risque d'avoir un stade E de la maladie sont la durée de l'intervalle diagnostic et la période de diagnostic. Conclusion : On constate un progrès dans le diagnostic du rétinoblastome en Suisse, surtout lors de maladie unilatérale. De même, des améliorations sont notées dans la maladie bilatérale mais de façon non significative. Il est donc important de mieux enseigner aux médecins à reconnaître les symptômes oculaires de la maladie et à référer les patients plus tôt aux spécialistes. Abstract : OBECTIVES : Retinoblastoma is the most frequent intraocular malignancy in children. Early diagnosis is essential for globe salvage and patient survival. The aim of our study was to determine how time to diagnosis of retinoblastoma has evolved over a 40-year period in Switzerland. METHOD AND PATIENTS : A retrospective study of 139 Swiss patients with retinoblastoma was performed comparing 3 periods: (1) 1963-1983; (2) 1984-1993; and (3) 1994-2004. Factors taken into account were gender, laterality of retínoblastoma, age at first symptoms, type and first observer of symptoms, time to diagnosis, age at diagnosis, disease stage, and family history. RESULTS : Thirty-seven patients (26.6%) were treated in period 1, 44 (31.7%) in period 2, and S8 (41.7%) in period 3.Overall, the diagnostic interval decreased in a significant way from 6.97 months in period 1 to 3.58 in period 2 and to 2.25 in period 3. When looking separately at unilateral and bilateral disease, the decrease oí the diagnostic interval remained statistically significant in unilateral retinoblastoma; there was also a significant reduction in the number of patients with advanced group E disease (Murphree classification) (61.5% in period 1, 46.7% in period 2, 22.2% in period 3). In bilateral disease, the same observations were made to a lesser extent. However, there were no cases with group E disease in 10 patients with positive family history. Leukornria (48.2%) and strabismus (20.1 %) were the 2 most frequent symptoms throughout the 3 periods. The only factors that statistically influenced the chances of having a diagnosis of group E disease were the diagnostic interval and period of diagnosis. Conclusion : Progress has been made in the diagnosis of retinoblastoma in Switzerland, notably in unilateral disease. Improvement to a lesser extent has also been observed in bilateral cases but without statistical significance. Greater effort is needed to teach physians-in-training to recognize the importance of ocular symptoms and refer patients earlier.
Resumo:
1. ABSTRACTS - RÉSUMÉSSCIENTIFIC ABSTRACT - ENGLISH VERSIONGeometry, petrology and growth of a shallow crustal laccolith: the Torres del Paine Mafi c Complex (Patagonia)The Torres del Paine intrusive complex (TPIC) is a composite mafic-granitic intrusion, ~70km2, belonging to a chain of isolated Miocene plutons in southern Patagonia. Their position is intermediate between the Mesozoic-Cenozoic calc-alkaline subduction related Patagonian batholith in the West and the late Cenozoic alkaline basaltic back-arc related plateau lavas in the East. The Torres del Paine complex formed during an important reconfiguration of the Patagonian geodynamic setting, with a migration of magmatism from the arc to the back-arc, possibly related to the Chile ridge subductionThe complex intruded the flysch of the Cretaceous Cerro Toro and Punta Barrosa Formations during the Miocene, creating a well-defined narrow contact aureole of 200-400 m width.In its eastern part, the Torres del Paine intrusive complex is a laccolith, composed of a succession of hornblende-gabbro to diorite sills at its base, with a total thickness of ~250m, showing brittle contacts with the overlying granitic sills, that form spectacular cliffs of more than 1000m. This laccolith is connected, in the western part, to its feeding system, with vertical alternating sheets of layered gabbronorite and Hbl-gabbro, surrounded and percolated by diorites. ID-TIMS U-Pb on zircons on feeder zone (FZ) gab- bros yield 12.593±0.009Ma and 12.587±0.009Ma, which is identifcal within error to the oldest granite dated so far by Michel et al. (2008). In contrast, the laccolith mafic complex is younger than than the youngest granite (12.50±0.02Ma), and has been emplaced from 12.472±0.009Ma to 12.431 ±0.006Ma, by under-accretion beneath the youngest granite at the interface with previously emplaced mafic sills.The gabbronorite crystallization sequence in the feeder zone is dominated by olivine, plagioclase, clinopyroxene and orthopyroxene, while amphibole forms late interstitial crystals. The crystallization sequence is identical in Hornblende-gabbro from the feeder zone, with higher modal hornblende. Gabbronorite and Hornblende-gabbro both display distinct Eu and Sr positive anomalies. In the laccolith, a lower Hornblende-gabbro crystallized in sills and evolved to a high alkali shoshonitic series. The Al203, Ti02, Na20, K20, Ba and Sr composition of these gabbros is highly variable and increases up to ~50wt% Si02. The lower hornblende-gabbro is characterized by kaersutite anhedral cores with inclusions of olivine, clino- and orthopyroxene and rare apatite and An70 plagioclase. Trace element modelling indicates that hornblende and clinopyroxene are in equilibrium with a liquid whose composition is similar to late basaltic trachyandesitic dikes that cut the complex. The matrix in the lower hornblende gabbro is composed of normally zoned oligoclase, Magnesio-hornblende, biotite, ilmenite and rare quartz and potassium feldspar. This assemblage crystallized in-situ from a Ba and Sr-depleted melts. In contrast, the upper Hbl-gabbro is high-K calc-alkaline. Poikilitic pargasite cores have inclusions of euhedral An70 plagioclase inclusions, and contain occasionally clinopyroxene, olivine and orthopyroxene. The matrix composition is identical to the lower hornblende-gabbro and similar to the diorite. Diorite bulk rock compositions show the same mineralogy but different modal proportions relative to hornblende-gabbrosThe Torres del Paine Intrusive Complex isotopic composition is 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 and 207Pb/204Pb=15.65. Differentiated dioritic and granitic units may be linked to the gabbroic cumulates series, with 20-50% trapped interstitial melt, through fractionation of olivine-bearing gabbronorite or hornblende-gabbro fractionation The relative homogeneity of the isotopic compositions indicate that only small amounts of assimilation occurred. Two-pyroxenes thermometry, clinopyroxene barometry and amphibole-plagioclase thermometry was used to estimate pressure and temperature conditions. The early fractionation of ultramafic cumulates occurs at mid to lower crustal conditions, at temperatures exceeding 900°C. In contrast, the TPIC emplacement conditions have been estimated to ~0.7±0.5kbar and 790±60°C.Based on field and microtextural observations and geochemical modelling, fractionation of basaltic-trachyandesitic liquids at intermediate to lower crustal levels, has led to the formation of the Torres del Paine granites. Repetitive replenishment of basaltic trachy- andesitic liquid in crustal reservoirs led to mixed magmas that will ascend via the feeder zone, and crystallize into a laccolith, in the form of successive dioritic and gabbroic sills. Dynamic fractionation during emplacement concentrated hornblende rich cumulates in the center of individual sills. Variable degrees.of post-emplacement compaction led to the expulsion of felsic liquids that preferentially concentrated at the top of the sills. Incremental sills amalgamation of the entire Torres del Paine Intrusive Complex has lasted for ~160ka.RESUME SCIENTIFIQUE - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'un laccolite peu profond : Le complexe ma- fique du Torres del Paine (Patagonie)Le Complexe Intrusif du Torres del Paine (CITP) est une intrusion bimodale, d'environ 70km2, appartenant à une chaîne de plutons Miocènes isolés, dans le sud de la Patago-nie. Leur position est intermédiaire entre le batholite patagonien calco-alcalin, à l'Ouest, mis en place au Mesozoïque-Cenozoïque dans un contexte de subduction, et les basal-tes andésitiques et trachybasaltes alcalins de plateau, plus jeune, à l'Est, lié à l'ouverture d'un arrière-arc.A son extrémité Est, le CITP est une succession de sills de gabbro à Hbl et de diorite, sur une épaisseur de ~250m, avec des évidences de mélange. Les contacts avec les sills de granite au-dessus, formant des parois de plus de 1000m, sont cassants. Ce laccolite est connecté, dans sa partie Ouest, à une zone d'alimentation, avec des intrusions sub-ver- ticales de gabbronorite litée et de gabbro à Hbl, en alternance. Celles-ci sont traversées et entourées par des diorites. Les zircons des gabbros de la zone d'alimentation, datés par ID-TIMS, ont cristallisés à 12.593±0.009Ma et 12.587±0.009Ma, ce qui correspond au plus vieux granite daté à ce jour par Michel et al. (2008). A l'inverse, les roches manques du laccolite se sont mises en place entre 12.472±0.009Ma et 12.431 ±0.006Ma, par sous-plaquage successifs à l'interface avec le granite le plus jeune daté à ce jour (12.50±0.02Ma).La séquence de cristallisation des gabbronorites est dominée par Ol, Plg, Cpx et Opx, alors que la Hbl est un cristal interstitiel. Elle est identique dans les gabbros à Hbl de la zone d'alimentation, avec ~30%vol de Hbl. Les gabbros de la zone d'alimentation montrent des anomalies positives en Eu et Sr distinctes. Dans le laccolite, le gabbro à Hbl inférieur évolue le long d'une série shoshonitique, riche en éléments incompatibles. Sa concentration en Al203, Ti02, Na20, K20, Ba et Sr est très variable et augmente rapide-ment jusqu'à ~50wt% Si02. Il est caractérisé par la présence de coeurs résorbés de kaer- sutite, entourés de Bt, et contenant des inclusions d'OI, Cpx et Opx, ou alors d'Ap et de rares Plg (An70). Hbl et Cpx ont cristallisés à partir d'un liquide de composition similaire aux dykes trachy-andesite basaltique du CITP. La matrice, cristallisée in-situ à partir d'un liquide pauvre en Ba et Sr, est composée d'oligoclase zoné de façon simple, de Mg-Hbl, Bt, llm ainsi que de rares Qtz et KF. Le gabbro à Hbl supérieur, quant à lui, appartient à une suite chimique calco-alcaline riche en K. Des coeurs poecilitiques de pargasite con-tiennent de nombreuses inclusions de Plg (An70) automorphe, ainsi que des Ol, Cpx et Opx. La composition de la matrice est identique à celle des gabbros à Hbl inférieurs et toutes deux sont similaires à la minéralogie des diorites. Les analyses sur roches totales de diorites montrent la même variabilité que celles de gabbros à Hbl, mais avec une ten-eur en Si02 plus élevée.La composition isotopique des liquides primitifs du CITP a été mesurée à 87Sr/86Sr=0.704, 143Nd/144Nd=0.5127, 206Pb/204Pb=18.70 et 207Pb/204Pb=15.65. Les granites et diorites différenciés peuvent être reliés à des cumulais gabbronoritiques (F=0.74 pour les granites et F=1-0.5 pour les diorites) et gabbroïques à Hbl (fractionnement supplémentaire pour les granites, avec F=0.3). La cristallisation de 20 à 50%vol de liquide interstitiel piégé dans les gabbros du CITP explique leur signature géochimique. Seules de faibles quantités de croûte continentale ont été assimilées. La température et la pression de fractionnement ont été estimées, sur la base des thermobaromètres Opx-Cpx, Hbl-Plg et Cpx, à plus de 900°C et une profondeur correspondant à la croûte inférieure-moyenne. A l'inverse, les conditions de cristallisation de la matrice des gabbros et diorites du laccolite ont été estimées à 790±60°C et ~0.7±0.5kbar.Je propose que les liquides felsiques du CITP se soient formés par cristallisation frac-tionnée en profondeur des assemblages minéralogiques observés dans les gabbros du CITP, à partir d'un liquide trachy-andesite basaltique. La percolation de magma dans les cristaux accumulés permet la remontée du mélange à travers la zone d'alimentation, vers le laccolite, où des sills se mettent en place successivement. L'amalgamation de sills dans le CITP a duré ~160ka.Le CITP s'est formé durant une reconfiguration importante du contexte géodynamique en Patagonie, avec un changement du magmatisme d'arc vers un volcanisme d'arrière- arc. Ce changement est certainement lié à la subduction de la ride du Chili.RESUME GRAND PUBLIC - VERSION FRANÇAISEGéométrie, pétrologie et croissance d'une chambre magmatique peu profonde : Le complexe mafique du Torres del Paine (Patagonie)Le pourtour de l'Océan Pacifique est caractérisé par une zone de convergence de plaques tectoniques, appelée zone de subduction, avec le plongement de croûte océa-nique sous les Andes dans le cas de la Patagonie. De nombreux volcans y sont associés, formant la ceinture de feu. Mais seuls quelques pourcents de tout le magma traversant la croûte terrestre parviennent à la surface et la majeure partie cristallise en profondeur, dans des chambres magmatiques. Quelles est leur forme, croissance, cristallisation et durée de vie ? Le complexe magmatique du Torres del Paine représente l'un des meilleurs endroits au monde pour répondre à ces questions. Il se situe au sud de la Patagonie, formant un massif de 70km2. Des réponses peuvent être trouvées à différentes échelles, variant de la montagne à des minéraux de quelques 1000ème de millimètres.Il est possible de distinguer trois types de roches : des gabbros et des diorites sur une épaisseur de 250m, surmontées par des parois de granite de plus de 1000m. Les contacts entre ces roches sont tous horizontaux. Entre granites et gabbro-diorite, le contact est net, indiquant que le second magma s'est mis en place au contact avec un magma plus ancien, totalement solidifié. Entre gabbros et diorites, les contacts sont diffus, souvent non-linéaires, indiquant à l'inverse la mise en contact de magmas encore partiellement liquides. Dans la partie Ouest de cette chambre magmatique, les contacts entre roches sont verticaux. Il s'agit certainement du lieu de remplissage de la chambre magmatique.Lors du refroidissement d'un magma, différents cristaux vont se former. Leur stabilité et leur composition varient en fonction de la pression, de la température ou de la chimie du magma. La séquence de cristallisation peut être définie sur la base d'observations microscopiques et de la composition chimique des minéraux. Différents gabbros sont ainsi distingués : le gabbro à la base est riche en hornblende, d'une taille de ~5mm, sans inclusion de plagioclase mais avec des cristaux d'olivine, clinopyroxene et orthopyroxene inclus ; le gabbro supérieur est lui-aussi riche en hornblende (~5mm), avec les mêmes inclusions additionnées de plagioclase. Ces cristaux se sont formés à une température supérieure à 900°C et une profondeur correspondant à la croûte moyenne ou inférieure. Les minéraux plus fin, se trouvant hors des cristaux de hornblende des deux gabbros, sont similaires à ceux des diorites : plagioclase, biotite, hornblende, apatite, quartz et feldspath alcalin. Ces minéraux sont caractéristiques des granites. Ils ont cristallisé à ~790°C et ~2km de profondeur.La cristallisation des minéraux et leur extraction du magma par gravité provoque un changement progressif de la composition de ce dernier. Ainsi, après extraction d'olivine et d'orthopyroxene riches en Mg, de clinopyroxene riche en Ca, de plagioclase riche en Ca et Al et d'hornblende riche en Ca, Al et Mg, le liquide final sera appauvri en ces élé-ments. Un lien peut ainsi être proposé entre les diorites dont la composition est proche du liquide de départ, les granites dont la composition est similaire au liquide final, et les gabbros dont la minéralogie correspond aux minéraux extraits.L'utilisation de zircons, un minéral riche en U dont les atomes se transforment en Pb par décomposition radioactive au cours de millions d'années, permet de dater le refroidissement des roches qui les contiennent. Ainsi, il a été observé que les roches de la zone d'alimentation, à l'Ouest du complexe magmatique, ont cristallisés il y a 12.59±0.01 Ma, en même temps que les granites les plus vieux, se trouvant au sommet de la chambre magmatique, datés par Michel et al. (2008). Les deux roches pourraient donc avoir la même origine. A l'inverse, les gabbros et diorites de la chambre magmatique ont cristallisé entre 12.47±0.01Ma et 12.43±0.01Ma, les roches les plus vieilles étant à la base.En comparant la composition des roches du Torres del Paine avec celles d'autres en-tités géologiques de Patagonie, les causes du magmatisme peuvent être recherchées. A l'Ouest, on trouve en effet des intrusions granitiques, plus anciennes, caractéristiques de zones de convergence de plaque tectonique, alors qu'à l'Est, des laves basaltiques plus jeunes sont caractéristiques d'une dynamique d'extension. Sur la base des compositions chimiques des roches de ces différentes entités, l'évolution progressive de l'une à l'autre a pu être démontrée. Elle est certainement due à l'arrivée d'une dorsale océanique (zone d'extension crustale et de création de croûte océanique par la remontée de magma) dans la zone de subduction, le long des Andes.Je propose que, dans un premier temps, des magmas granitiques sont remontés dans la chambre magmatique, laissant d'importants volumes de cristaux dans la croûte pro-fonde. Dans un second épisode, les cristaux formés en profondeur ont été transportés à travers la croûte continentale, suite au mélange avec un nouveau magma injecté. Ces magmas chargés de cristaux ont traversé la zone d'alimentation avant de s'injecter dans la chambre magmatique. Différents puises ont été distingués, injectés dans la chambre magmatique du sommet à la base concernant les granites, puis à la base du granite le plus jeune pour les gabbros et diorites. Le complexe magmatique du Torres del Paine s'est construit sur une période totale de 160'000±20'000 ans.
Resumo:
Résumé : Si la psychanalyse est régulièrement remise en cause pour son manque de fondement scientifique, de nombreux travaux issus des neurosciences en appellent paradoxalement à un retour aux thèses freudiennes. Cette étude se propose, dans ce contexte, de revisiter les bases neurobiologiques de la métapsychologie et de montrer comment celle-ci repose sur une conception homéostatique du vivant. On en tire plusieurs conséquences. Premièrement, contre Brentano, selon qui l'intentionnalité est la marque du psychologique, on propose que celle-ci s'avère être, plus originellement, la marque des régulations biologiques. Deuxièmement, on montre comment Freud et Damasio développent des conceptions similaires sur le fonctionnement homéostatique de la cognition. Sur le plan épistémologique, on plaide en faveur de la complémentarité de ces deux approches. Si Damasio met au jour les variables somatiques permettant de mesurer les effets de la vie psychique, la théorie pulsionnelle permet de dépasser les problèmes liés à l'ambiguïté de la notion de «représentation cérébrale ». C'est à partir de cette thèse que l'on peut, selon nous, appréhender la psychanalyse comme un double projet visant à articuler une naturalisation de l'appareil psychique à une herméneutique de ses productions. On considère cette double visée comme une réponse à la difficulté centrale que rencontrent les sciences de l'esprit quant aux conditions de possibilité d'une naturalisation de l'intentionnalité. A partir de cette problématique, il devient pertinent d'évaluer la solution freudienne à la lumière de la posture intentionnelle dennettienne et de la théorie gazzaniguienne de l'interpreter. II ne s'agit pas, selon ces dernières approches, de naturaliser directement l'intentionnalité, au risque de commettre une erreur de catégorie. Il est question, au contraire, d'utiliser les principes du fonctionnement homéostatique comme autant de «règles »interprétatives permettant, sur le plan psychologique, de construire du sens. On trouve enfin dans le modèle de l'espace global de travail un moyen de remettre au goût du jour la conception freudienne, dynamique et conflictuelle, du fonctionnement psychique. On avance enfin, à partir de ce modèle, des hypothèses sur les mécanismes cérébraux susceptibles de sous-tendre l'efficacité thérapeutique de la cure analytique. Abstract : While Psychoanalysis' scientific basis is open to question, some neuroscience works are paradoxically calling for a return to Freud. Therefore, the first aim of our study consists in revisiting metapychology's neurobiological roots and to show how it is grounded on a homeostatic theory of life. Several consequences can be drawn from this statement. Firstly, in opposition to Brentanian definition of intentionality, as the specific mark of psychology, we argue that it is more specifically the mark of biological balance. Secondly, this statement allows to show how Freud's and Damasio's theories share common views on the homeostatic functioning of cognition. From an epistemological point of view, they complete one another. If Damasio has highlighted the measurable somatic variables from which we can infer psychic life, the theory of drives allows conceptual difficulties linked to the use of the ambiguous notion of "cerebral representation" to be overcome. According to us, this thesis leads psychoanalysis to be approached as a twin project aiming to articulate psyche naturalization, to a hermeneutic of its productions. It maybe seen as a way to respond to the central issue of mind sciences, that is, to account for the naturalization of intentionality. Given this theoretical framework, it seems relevant to reconsider freudism in the light of the dennettian intentional stance and the gazzanigan theory of interpreter. Then, freudism can be seen as a way to avoid a category mistake. Its solution rejects direct intentionality naturalization in favor of a construction of sense. In this framework, interpretation is regulated by the rules abstracted from the homeostatic functioning of life. Furthermore, we show how the dynamic and conflictual Freudian psyche can be evaluated using the Global workspace model, which allows us to put forth hypotheses on the cerebral mechanisms that may underlie the efficiency of analytical cure.
Resumo:
Contexte :¦Les affections neuromusculaires sont des maladies rares, le plus souvent d'origine génétique et dont le degré de sévérité est variable. Certaines sont progressives et conduisent à une perte de l'indépendance motrice et à une insuffisance respiratoire, tandis que d'autres permettent une vie proche de la normale.¦Les progrès des connaissances en génétique moléculaire ont permis d'améliorer significativement la connaissance des mécanismes physiopathologiques de ces maladies et ont également ouverts la voie à de nouvelles possibilités thérapeutiques. Concernant les maladies les plus graves, le but premier de ces thérapies sera de tenter de préserver la marche indépendante le plus longtemps possible. Toutefois, les patients ayant déjà perdu la marche et qui dépendent de la fonction de leur membres supérieurs pour garder une certaine indépendance devront également pouvoir être inclus dans des essais thérapeutiques et bénéficier des traitements reconnus efficaces.¦De nouveaux moyens de mesure de la fonction motrice des membres supérieurs doivent être développés non seulement dans la perspective de ces éventuels essais thérapeutiques pour ces patients limités à la chaise roulante, mais également dans le but de pouvoir évaluer plus précisément l'histoire naturelle des maladies même après la perte de la marche indépendante.¦Objectifs:¦Evaluer la fonction motrice des membres supérieurs chez des patients myopathes ayant perdu la marche indépendante par mesure cinématique.¦Méthode :¦Mesure de l'activité des membres supérieurs et le profil de cette activité par mesure cinématique (Physilog) chez:¦-Vingt-cinq patients atteints d'une myopathie en chaise roulante.¦-Vingt-cinq sujets contrôle assis¦Ces mesures seront comparées aux scores obtenus à l'échelle de Mesure de Fonction Motrice (Bérard et al, 2005) et plus précisément à l'axe D3 de cette échelle qui évalue les fonctions distales.¦Les patients seront vus à deux reprises pour une période de deux fois deux heures pendant laquelle ils porteront le Physilog. Il leur sera demandé d'effectuer une série d'exercices afin d'évaluer la fonction motrice des membres supérieurs (manger un yaourt avec une cuillère, verser un verre d'eau et le boire, se toucher selon les possibilités la tête, le front, la bouche, le cou, jouer à la console Wii) Le score de Brooke sera également testé. Chaque exercice sera répété plusieurs fois afin de d'assurer de la qualité des résultats.¦Système portable Physilog :¦Physilog est un système de mesure ambulatoire. La version utilisée dans cette étude est composée de 2 capteurs miniatures et d'une unité numérique portable légère (~215 g), qui filtre, amplifie et sauvegarde les signaux fournis par les capteurs sur une carte mémoire (Physilog-BioAGM, CH).¦Afin de pouvoir enregistrer l'activité des deux membres supérieurs, deux appareils Physilog (4 capteurs) seront utilisés par patient. Deux capteurs seront fixés sur chaque membre supérieur. Les capteurs sont fixés sur la peau à l'aide d'une bande autocollante.¦Les capteurs mis au point par le LMAM (laboratoire de mesure et d'analyse du mouvement) mesurent la rotation angulaire et l'accélération au niveau des membres supérieurs. L'algorithme utilisé dans cette étude a été développé dans le laboratoire LMAM à l'EPFL et a fait l'objet d'une thèse.¦Résultats escomptés :¦Les résultats de l'étude pilote montrent que le Physilog permet de quantifier de manière fiable et reproductible la fonction des membres supérieurs durant des activités courantes de la vie quotidienne et pourrait donc devenir un moyen d'évaluation fiable des nouveaux traitements.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
RESUME DE LA THESE Introduction. Les traitements de la phase aiguë d'un accident vasculaire cérébral (AVC) ischémique ne peuvent être proposés actuellement qu'à une minorité de patients. Nous avons évalué l'accès à la thrombolyse des patients admis pour un AVC aigu dans un hôpital régional de Suisse romande (Neuchâtel) et l'avons comparé avec celui d'un centre universitaire de référence, distant de 75 km, administrant directement ce type de traitement (CHUV, Lausanne). Méthodes. Tous les cas admis à l'hôpital à Neuchâtel pour une suspicion d'AVC aigu sur une période de 2 ans ont été analysés rétrospectivement au niveau de la phase pré-hospitalière et hospitalière par rapport à la possibilité d'une thrombolyse. Résultats. Chez 120 patients (54%), le diagnostic d'AVC ischémique a été confirmé. Si l'on fait abstraction du facteur temps, 46 patients (38.3%) auraient été éligibles pour une thrombolyse sur des critères cliniques et radiologiques. Trois patients (2.5%) ont finalement bénéficié d'une thrombolyse intraveineuse (iv) dans un intervalle de 3 heures après transfert au CHUV. En comparaison, 33 patients (7%) ont été traités au CHUV durant la même période. Conclusion. Grâce notamment à l'avènement de la télémédecine, la pratique de la thrombolyse iv dans des centres régionaux sélectionnés pourrait contribuer à rendre ce traitement plus accessible.
Resumo:
Résumé : Nous avons effectué une étude de cohorte examinant la survie de tous les patients qui ont présenté une sepsis sévère ou un choc septique aux soins intensifs de médecine et de chirurgie du CIIUV durant une période de 3 ans. Introduction: La sepsis sévère et le choc septique constituent la deuxième cause de mortalité dans les unités de soins intensifs non coronaires. La survie à long terme est mal connue. Nous avons comparé la survie à 28 jours de notre collectif avec les données de la littérature, examiné la survie à long terme des patients ayant survécus plus de 28 jours et identifié des paramètres prédictifs de la survie. Matériel et méthode : Nous avons classifié les patients ayant présenté un épisode septique rétrospectivement en sepsis sévère ou choc septique selon les critères de Bone (1). Les données cliniques et paracliniques ont été relevées au moment de l'épisode. Des courbes de survie uni- et multivariées ont été établies à 28 jours et à long terme chez ceux qui ont survécus plus de 28 jours, d'après les données de questionnaires envoyés aux médecins traitants. Résultats : Durant Ìa période de l'étude, 339 patients ont présenté un choc septique (169) ou une sepsis sévère (170). La mortalité à 28 jours a été de 33% (choc septique: 55%, sepsis sévère: 11.2%, p<10"5). Les données significativement associées à la mortalité à 28 jours dans l'analyse de régression multivariée selon Cox ont été le type d'épisode septique (choc septique vs. sepsis sévère, p=0.001), le «Acute Physiology Score» du score APACHE II (p=0.02) et le nombre de dysfonctions d'organes (plus de trois dysfunctions, p=0.04). 227 patients ont survécu plus de 28 jours et des données de suivi ont été obtenues chez 225. Le suivi moyen après 28 jours a été de 25.1 mois (5700 mois-patients). La mortalité globale de ces patients, extrapolée des courbes de Kaplan-Meyer, a été de l'ordre de 7% à 1 an et de 15% à 2 ans. Les données significativement associées à leur survie à long terme ont été les "chronic health points" du score APACHE II (p=0.02), l'âge (p=0.05) et le fait d'avoir subi une opération chirurgicale avant l'épisode septique (p=0.02). Conclusion : La mortalité à 28 jours de notre cohorte de patients s'est révélée comparable aux chiffres publiés. La survie à long terme des patients ayant survécu plus de 28 jours a été satisfaisante. Elle s'est révélée indépendante de la sévérité de l'épisode septique, mais dépendait plutôt des conditions de santé sous-jacentes.