1000 resultados para Données probantes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a relativement peu d'études portant sur la santé au travail des professionnels des urgences préhospitalières. Toutefois, quelques études suggèrent que les problèmes de santé mentale sont particulièrement fréquents et graves pour cette population de travailleurs et travailleuses. Notre étude visait d'une part à identifier certains facteurs professionnels associés à différents symptômes chez des professionnels des urgences pré-hospitalières. D'autre part, cette étude visait à identifier et à documenter diverses stratégies de préservation de la santé utiliséespar ces professionnels dans le cadre de leur travailDans un premier temps, une phase qualitative centrée sur l'observation du travail réel a été effectuée. Au cours de cette phase, les chercheurs ont accompagné des équipages de professionnels des urgences pré-hospitalières pour la durée entière de la journée de travail et pour une moyenne d'environ une semaine (4 X 12 heures) par équipage. Les analyses des données d'observation ont été réalisées en équipe multidisciplinaire. Certaines interventions ont été filmées et utilisées dans le cadre d'entretiens en auto-confrontation. Les observations ont été effectuées dans 11 services pour un total de 416 heures d'observation et 70 interventions. L'analyse de l'activité réelle de travail a été effectuée à travers diverses thématiques comme par exemple le travail d'équipe, l'organisation, ou la charge physique. Dans un second temps, un questionnaire a été développé et administré à l'ensemble des ambulanciers (N=669) en Suisse francophone. Cette démarche visait 1-à documenter l'état de santé de ces professionnels et 2- à mettre en évidence des associations entre certains facteurs liés au travail et des indicateurs de santé.Au total, 374 questionnaires ont été retournés. Cette démarche a permis de constater que les professionnels des urgences pré-hospitalières sont nombreux (14 %) à avoir un score élevé (associé à un risque augmenté de troubles psychiques) pour le General Health Questionnaire (GHQ). Des associations ont été observées entre le fait d'avoir un score élevé pour le GHQ et certaines caractéristiques du travail (le type d'intervention, le ratio efforts-récompenses de Siegrist, de même que certains aspects organisationnels ou liés à la supervision). 20 % des participants mentionnentaussi souffrir de séquelles psychiques attribuables à des interventions particulièrement diffi ciles sur le plan émotionnel. Les stratégies observées concernent par exemple l'utilisation des ressources disponibles (médecin conseil, collègues, psychologues), différentes stratégies de coping psychologique, des aménagements spontanés des rôles entre collègues, diverses modalités visant à développer/maintenir les compétences.Notre étude confi rme l'importance des problèmes de santé psychique pour des collectifs de professionnels des urgences pré-hospitalières. Notre démarche a aussi permis de constater que ces professionnels ont recours à diverses stratégies pour réguler leur activité de travail. Ces stratégies comportent un potentiel pour la préservation de la santé mentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Agir efficacement contre les incendies volontaires répétitifs représente un défi de taille pour la société et la police. Nous proposons d'utiliser l'intelligence-led policing et le cycle du renseignement comme cadre à une approche permettant une gestion et un suivi global et systématique de ces événements. Mais avant de pouvoir lancer ce processus, un certain nombre de défis doit être surmonté tel que la nature non spécifique des données. Il sera alors possible de mettre en place un processus qui permettra de faire des analyses pour obtenir une vision des incendies, détecter des situations répétitives et des liens entre les événements mettant en évidence des séries. Le renseignement obtenu par l'analyse des données rassemblées peut ensuite être utilisé pour mettre en place des moyens complémentaires d'enquête ou pour prendre des mesures préventives ou répressives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : The present work addresses several aspects of cell cycle regulation, cell fate specification and cell death in the central nervous system (CNS), specifically the cortex and the retina. More precisely, we investigated the role of Bmi1, a polycomb family gene required for stem cell proliferation and self-renewal, in the development of the cerebral cortex, as well as in the genesis of the retina. These data, together with studies published during the last two decades concerning cell cycle re-activation in apoptotic neurons in the CNS, raised the question of a possible link between regulation of the cell cycle during development and during retinal degeneration. 1. The effects of Bmi1 loss in the cerebral cortex : Consistently with our and others' observations on failure of Bmi9-/- stem cells to proliferate and self-renew in vitro, the Bmi9-/- cerebral cortex presented slight defects in proliferation in stem/progenitor cells compartments in vivo. This was in accordance with the pattern of Bmi1 expression in the developing forebrain. The modest proliferation defects, compared to the drastic consequences of Bmi9 loss in vitro, suggest that cell-extrinsic mechanisms may partially compensate for Bmi1 deletion in vivo during cortical histogenesis. Nevertheless, we observed a decreased proliferating activity in neurogenic regions of the adult telencephalon, more precisely in the subventricular zone, showing that Bmi1 controls neural stem/progenitor proliferation during adulthood in vivo. Our data also highlight an increased production of astrocytes at birth, and a generalized gliosis in the adult Bmi9-/- brain. Importantly, glial progenitors and astrocytes retained the ability to proliferate in the absence of Bmi1. 2. The effects of Bmi1 loss in the retina : The pattern of expression of Bmi1 during development and in the adult retina suggests a role for Bmi1 in cell fate specification and differentiation rather than in proliferation. While the layering and the global structure of the retina appear normal in Bmi1 /adult mice, immunohistochemìcal analysis revealed defects in the three major classes of retinal interneurons, namely: horizontal, bipolar and amacrine cells. Electroretinogram recordings in Bmi9-/- mice are coherent with the defects observed at the histological level, with a reduced b-wave and low-profile oscillatory potentials. These results show that Bmi1 controls not only proliferation, but also cell type generation, as previously observed in the cerebellum. 3. Cell cycle events and related neuroprotective strategies in retinal degeneration : In several neurodegenerative disorders, neurons re-express cell cycle proteins such as cyclin dependent kinases (Cdks) prior to apoptosis. Here, we show for the first time that this is also the case during retinal degeneration. Rd1 mice carry a recessive defect (Pdeóbrd/rd) that causes retinal degeneration and serves as a model of retinitis pigmentosa. We found that photoreceptors express Cdk4 and Cdk2, and undergo DNA synthesis prior to cell death. To interfere with the reactivation of Cdk-related pathways, we deleted E2fs or Brni1, which normally allow cell cycle progression. While deleting E2f1 (downstream of Cdk4/6) in Rd1 mice provides only temporary protection, knocking out Bmi1 (upstream of Cdks) leads to an extensive neuroprotective effect, independent of p16ink4a or p19arf, two tumor suppressors regulated by Bmi1. Analysis of Cdks and the DNA repair-related protein Ligase IV showed that Bmi1 acts downstream of DNA repair events and upstream of Cdks in this neurodegenerative mechanism. Expression of Cdks during an acute model of retinal degeneration, light damage-induced photoreceptor death, points to a role for Bmi1 and cell cycle proteins in retinal degeneration. Considering the similarity with the cell cycle-related apoptotic pathway observed in other neurodegenerative diseases, Bmi1 is a possible general target to prevent or delay neuronal death. RESUME : Ce travail aborde plusieurs aspects de la régulation du cycle cellulaire, de la spécification du devenir des cellules et de la mort cellulaire dans le système nerveux centrale (SNC), plus particulièrement dans le cortex cérébral et dans la rétine. Nous nous sommes intéressés au gène Bmi1, appartenant à la famille polycomb et nécessaire à la prolifération et au renouvellement des cellules souches. Nous avons visé à disséquer son rôle dans le développement du cortex et de la rétine. Ces données, ainsi qu'une série de travaux publiés au cours des deux dernières décennies concernant la réactivation du cycle cellulaire dans les neurones en voie d'apoptose dans le SNC, nous ont ensuite poussé à chercher un lien entre la régulation du cycle cellulaire pendant le développement et au cours de la dégénérescence rétinienne. 1. Les effets de l'inactivation de Bmi1 dans le cortex cérébral : En accord avec l'incapacité des cellules souches neurales in vitro à proliférer et à se renouveler en absence de Bmi1, le cortex cérébral des souris Bmi1-/- présente de légers défauts de prolifération dans les compartiments contenant les cellules souches neurales. Ceci est en accord avec le profil d'expression de Bmi1 dans le télencéphale. Les conséquences de la délétion de Bmi1 sont toutefois nettement moins prononcées in vivo qu'in vitro ; cette différence suggère l'existence de mécanismes pouvant partiellement compenser l'absence de Bmi1 pendant la corticogenèse. Néanmoins, l'observation d'une réduction de la prolifération dans la zone sous-ventriculaire, la zone majeure de neurogenèse dans le télencéphale adulte, montre que Bmi1 contrôle la prolifération des cellules souche/progénitrices neurales chez la souris adulte. Nos résultats démontrent par ailleurs une augmentation de la production d'astrocytes à la naissance ainsi qu'une gliose généralisée à l'état adulte chez les souris Bmi1-/-. Les progéniteurs gliaux et les astrocytes conservent donc leur capacité à proliférer en absence de Bmi1. 2. Les effets de l'inactivation de Bmi1 dans la rétine : Le profil d'expression de Bmi1 pendant fe développement ainsi que dans la rétine adulte suggère un rôle de Bmi1 dans la spécification de certains types cellulaires et dans la différentiation plutôt que dans la prolifération. Alors que la structure et la lamination de la rétine semblent normales chez les souris Bmi1-/-, l'analyse par immunohistochimie amis en évidence des défauts au niveau des trois classes d'interneurones rétiniens (les cellules horizontales, bipolaires et amacrines). Les électrorétinogrammes des souris Bmi1-/- sont cohérents avec les défauts observés au niveau histologique et montrent une réduction de l'onde « b » et des potentiels oscillatoires. Ces résultats montrent que Bmi1 contrôle la génération de certaines sous-populations de neurones, comme démontré auparavant au niveau de cervelet. 3. Réactivation du cycle cellulaire et stratégies théraoeutiaues dans les dégénérescences rétiniennes : Dans plusieurs maladies neurodégénératives, les neurones ré-expriment des protéines du cycle cellulaire telles que les kinases cycline-dépendantes (Cdk) avant d'entrer en apoptose. Nous avons démontré que c'est aussi le cas dans les dégénérescences rétiniennes. Les souris Rd1 portent une mutation récessive (Pde6brd/rd) qui induit une dégénérescence de la rétine et sont utilisées comme modèle animal de rétinite pigmentaire. Nous avons observé que les photorécepteurs expriment Cdk4 et Cdk2, et entament une synthèse d'ADN avant de mourir par apoptose. Pour interférer avec la réactivation les mécanismes Cdk-dépendants, nous avons inactivé les gènes E2f et Bmi1, qui permettent normalement la progression du cycle cellulaire. Nous avons mis en évidence que la délétion de E2f1 (en aval de Cdk4/6) dans les souris Rd1 permet une protection transitoire des photorécepteurs. Toutefois, l'inactivation de Bmi1 (en amont des Cdk) est corrélée à une neuroprotection bien plus durable et ceci indépendamment de p16ink4a et p19arf, deux suppresseurs de tumeurs normalement régulés par Bmi1. L'analyse des Cdk et de la ligase IV (une protéine impliquée dans les mécanismes de réparation de l'ADN) a montré que Bmi1 agit en aval des événements de réparation de l'ADN et en amont des Cdk dans la cascade apoptotique dans les photorécepteurs des souris Rd1. Nous avons également observé la présence de Cdk dans un modèle aigu de dégénérescence rétinienne induit par une exposition des animaux à des niveaux toxiques de lumière. Nos résultats suggèrent donc un rôle général de Bmi1 et des protéines du cycle cellulaire dans les dégénérescences de la rétine. Si l'on considère la similarité avec les événements de réactivation du cycle cellulaire observés dans d'autres maladies neurodégénératives, Bmi1 pourrait être une cible thérapeutique générale pour prévenir la mort neuronale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT (FRENCH)Ce travail de thèse basé sur le système visuel chez les sujets sains et chez les patients schizophrènes, s'articule autour de trois articles scientifiques publiés ou en cours de publication. Ces articles traitent des sujets suivants : le premier article présente une nouvelle méthode de traitement des composantes physiques des stimuli (luminance et fréquence spatiale). Le second article montre, à l'aide d'analyses de données EEG, un déficit de la voie magnocellulaire dans le traitement visuel des illusions chez les patients schizophrènes. Ceci est démontré par l'absence de modulation de la composante PI chez les patients schizophrènes contrairement aux sujets sains. Cette absence est induite par des stimuli de type illusion Kanizsa de différentes excentricités. Finalement, le troisième article, également à l'aide de méthodes de neuroimagerie électrique (EEG), montre que le traitement des contours illusoires se trouve dans le complexe latéro-occipital (LOC), à l'aide d'illusion « misaligned gratings ». De plus il révèle que les activités démontrées précédemment dans les aires visuelles primaires sont dues à des inférences « top- down ».Afin de permettre la compréhension de ces trois articles, l'introduction de ce manuscrit présente les concepts essentiels. De plus des méthodes d'analyses de temps-fréquence sont présentées. L'introduction est divisée en quatre parties : la première présente le système visuel depuis les cellules retino-corticales aux deux voix du traitement de l'information en passant par les régions composant le système visuel. La deuxième partie présente la schizophrénie par son diagnostic, ces déficits de bas niveau de traitement des stimuli visuel et ces déficits cognitifs. La troisième partie présente le traitement des contours illusoires et les trois modèles utilisés dans le dernier article. Finalement, les méthodes de traitement des données EEG seront explicitées, y compris les méthodes de temps-fréquences.Les résultats des trois articles sont présentés dans le chapitre éponyme (du même nom). De plus ce chapitre comprendra les résultats obtenus à l'aide des méthodes de temps-fréquenceFinalement, la discussion sera orientée selon trois axes : les méthodes de temps-fréquence ainsi qu'une proposition de traitement de ces données par une méthode statistique indépendante de la référence. La discussion du premier article en montrera la qualité du traitement de ces stimuli. La discussion des deux articles neurophysiologiques, proposera de nouvelles d'expériences afin d'affiner les résultats actuels sur les déficits des schizophrènes. Ceci pourrait permettre d'établir un marqueur biologique fiable de la schizophrénie.ABSTRACT (ENGLISH)This thesis focuses on the visual system in healthy subjects and schizophrenic patients. To address this research, advanced methods of analysis of electroencephalographic (EEG) data were used and developed. This manuscript is comprised of three scientific articles. The first article showed a novel method to control the physical features of visual stimuli (luminance and spatial frequencies). The second article showed, using electrical neuroimaging of EEG, a deficit in spatial processing associated with the dorsal pathway in chronic schizophrenic patients. This deficit was elicited by an absent modulation of the PI component in terms of response strength and topography as well as source estimations. This deficit was orthogonal to the preserved ability to process Kanizsa-type illusory contours. Finally, the third article resolved ongoing debates concerning the neural mechanism mediating illusory contour sensitivity by using electrical neuroimaging to show that the first differentiation of illusory contour presence vs. absence is localized within the lateral occipital complex. This effect was subsequent to modulations due to the orientation of misaligned grating stimuli. Collectively, these results support a model where effects in V1/V2 are mediated by "top-down" modulation from the LOC.To understand these three articles, the Introduction of this thesis presents the major concepts used in these articles. Additionally, a section is devoted to time-frequency analysis methods not presented in the articles themselves. The introduction is divided in four parts. The first part presents three aspects of the visual system: cellular, regional, and its functional interactions. The second part presents an overview of schizophrenia and its sensoiy-cognitive deficits. The third part presents an overview of illusory contour processing and the three models examined in the third article. Finally, advanced analysis methods for EEG are presented, including time- frequency methodology.The Introduction is followed by a synopsis of the main results in the articles as well as those obtained from the time-frequency analyses.Finally, the Discussion chapter is divided along three axes. The first axis discusses the time frequency analysis and proposes a novel statistical approach that is independent of the reference. The second axis contextualizes the first article and discusses the quality of the stimulus control and direction for further improvements. Finally, both neurophysiologic articles are contextualized by proposing future experiments and hypotheses that may serve to improve our understanding of schizophrenia on the one hand and visual functions more generally.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d'examens fluoroscopiques pratiqués en fluoroscopie est en augmentation constante en cardiologie pédiatrique. Ces examens ont un bénéfice évident pour le diagnostic et la thérapie de pathologies cardiaques complexes mais ils sont également la cause d'exposition à des hautes doses de radiation. Notre étude propose donc d'analyser cette pratique au Centre Hospitalier Universitaire Vaudois (CHUV) ainsi que d'établir des niveaux de référence diagnostiques et de rechercher les moyens possibles de diminution de doses. La base de données que nous avons analysé provient du service de cardiologie pédiatrique du CHUV (Lausanne). Elle contient 873 examens fluoroscopiques pratiqués entre le 1er janvier 2003 et le 31 décembre 2011 et se compose des données démographiques, du temps de scopie en minutes et du dose area product (DAP) en Gycm 2 pour chaque examen. Les examens sont séparés en deux modalités, diagnostique et interventionnel et ont été pratiqués sur l'installation GE jusqu'en juillet 2010 et par la suite sur l'installation Philips. L'analyse s'est faite sur Excel et sur JMP Statistics afin d'établir la distribution démographique de l'échantillon, les moyennes et percentiles 75. Les examens diagnostiques ont été étudié par classes d'âge et les examens interventionnels selon une classification d'intervention (Ranking) établie en collaboration avec le médecin responsable de ces procédures au CHUV. Seuls les groupes d'examens ayant un nombre égal ou supérieur à 20 ont été analysés. Nous avons donc analysé 873 examens, dont 512 diagnostiques et 361 interventionnels. Le temps de scopie moyen pour l'ensemble des examens diagnostiques est de 11.91 minutes et le DAP moyen de 12.04 Gycm2. Concernant les examens interventionnels, les moyennes de temps de scopie et de DAP sont de 17.74 minutes et 9.77 Gycm2 respectivement. En plus des analyses par classes d'âges et par ranking, nous avons étudié les examens selon leurs données démographiques ainsi que par pathologie et par installation. L'ensemble des examens diagnostiques connaissent une diminution significative (p<0.0001) de 30% pour le temps de scopie moyen et de 60% pour le DAP moyen en passant de l'installation la plus ancienne, GE, à la plus récente, Philips. Concernant les examens interventionnels, La différence entre les deux installations est encore plus marquée avec un temps de scopie moyen 55 % inférieur ( Gycm2) et un DAP moyen 73 % (p=0.0002) plus faible sur Philips par rapport à GE. Ces différences sont principalement expliquées par l'apport de nouveaux outils sur l'installation Philips, tels que la digitalisation et le traitement de l'image, de la possibilité de changer le nombre d'images par seconde durant un examen ainsi que de l'amélioration de la pratique des examinateurs. Nous avons pu définir des percentiles 75 pour les examens diagnostiques par classes d'âge et par pathologie et pour les examens interventionnels selon le ranking établi par le Dr Di Bernardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pseudomonas aeruginosa, une bactérie environnementale ubiquitaire, est un des pathogènes nosocomiaux les plus fréquents aux soins intensifs. La source de ce microorganisme peut être soit endogène, 2,6 à 24 % des patients hospitalisés étant colonisés au niveau digestif, soit exogène. La proportion des cas d'infections à P. aeruginosa d'origine exogène, donc secondaires à une transmission par manuportage ou par l'eau du réseau utilisée pour la toilette ou d'autres soins, reste débattue. Or une meilleure évaluation du taux d'infections exogènes est importante pour la mise en place de mesures de contrôle appropriées. Le but de cette étude était de déterminer sur une période de 10 ans les rôles respectifs des sources exogènes (robinets, autres patients) et endogène dans la colonisation et/ou l'infection par P.aeruginosa chez les patients des Soins Intensifs, ainsi que de documenter les variations épidémiologiques au cours du temps. L'étude a été menée dans les unités de Soins Intensifs du Centre Hospitalier Universitaire Vaudois (CHUV). Les patients colonisés et/ou infectés par P. aeruginosa entre 1998 et 2007ont été identifiés via la base de données du laboratoire de microbiologie. Ils ont été inclus dans l'étude s'ils étaient hospitalisés dans une des unités de Soins Intensifs, Durant cette période, des prélèvements pour recherche de P. aeruginosa ont été effectués sur des robinets des soins intensifs. Un typage moléculaire a été effectué sur toutes les souches cliniques et environnementales isolées en 1998, 2000, 2003, 2004 et 2007. Les patients inclus dans l'étude ont été répartis en quatre catégories (A-D) selon le résultat du typage moléculaire leur souche de P. aeruginosa. La catégorie A inclut les cas pour lesquels le génotype de P. aeruginosa est identique à un des génotypes retrouvé dans l'environnement. La catégorie B comprend les cas pour lesquels le génotype est identique à celui d'au moins un autre patient. La catégorie C comprend les cas avec un génotype unique et la catégorie D comprend les cas pour lesquels la souche était non disponible pour le typage. Les cas des catégories A et B sont considérés comme ayant une origine exogène. Au cours des années de l'étude, le nombre d'admissions aux soins intensifs est resté stable. En moyenne, 86 patients par année ont été identifiés colonisés ou infectés par P. aeruginosa aux Soins Intensifs. Durant la première année d'investigation, un grand nombre de patients colonisés par une souche de P. aeruginosa identique à une de celles retrouvées dans l'environnement a été mis en évidence. Par la suite, possiblement suite à l'augmentation de la température du réseau d'eau chaude, le nombre de cas dans la catégorie A a diminué. Dans la catégorie B, le nombre de cas varie de 1,9 à 20 cas/1000 admissions selon les années. Ce nombre est supérieur à 10 cas/1000 admissions en 1998, 2003 et 2007 et correspond à des situations épidémiques transitoires. Tout au long des 10 ans de l'étude, le nombre de cas dans la catégorie C (source endogène) est demeuré stable et indépendant des variations du nombre de cas dans les catégories A et B. En conclusion, la contribution relative des réservoirs endogène et exogène dans la colonisation et/ou l'infection des patients de soins Intensifs varie au cours du temps. Les facteurs principaux qui contribuent à de telles variations sont probablement le degré de contamination de l'environnement, la compliance des soignants aux mesures de contrôle des infections et la génétique du pathogène lui-même. Etant donné que ce germe est ubiquitaire dans l'environnement aqueux et colonise jusqu'à 15% des patients hospitalisés, la disparition de son réservoir endogène semble difficile. Cependant, cette étude démontre que son contrôle est possible dans l'environnement, notamment dans les robinets en augmentant la température de l'eau. De plus, si une souche multi-résistante est retrouvée de manière répétée dans l'environnement, des efforts doivent être mis en place pour éliminer cette souche. Des efforts doivent être également entrepris afin de limiter la transmission entre les patients, qui est une cause importante et récurrente de contamination exogène. - Pseudomonas aeruginosa is one of the leading nosocomial pathogens in intensive care units (ICUs). The source of this microorganism can be either endogenous or exogenous. The proportion of cases as a result of transmission is still debated, and its elucidation is important for implementing appropriate control measures. To understand the relative importance of exogenous vs. endogenous sources of P. aeru¬ginosa, molecular typing was performed on all available P. aeruginosa isolated from ICU clinical and environmental specimens in 1998, 2000, 2003, 2004 and 2007. Patient samples were classified according to their P. aeruginosa genotypes into three categories: (A) identical to isolate from faucet; (B) identical to at least one other patient sample and not found in faucet; and (C) unique genotype. Cases in cat¬egories A and Β were considered as possibly exogenous, and cases in category C as possibly endogenous. A mean of 34 cases per 1000 admissions per year were found to be colonized or infected by P. aeruginosa. Higher levels of faucet contamination were correlated with a higher number of cases in category A. The number of cases in category Β varied from 1.9 to 20 cases per 1000 admissions. This num¬ber exceeded 10/1000 admissions on three occasions and was correlated with an outbreak on one occasion. The number of cases con¬sidered as endogenous (category C) was stable and independent of the number of cases in categories A and B. The present study shows that repeated molecular typing can help identify variations in the epidemiology of P. aeruginosa in ICU patients and guide infection control measures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Les services d'urgences sont régulièrement confrontés à des intoxications par ingestion de champignons. Ces situations, souvent banales, peuvent nécessiter une prise en charge intensive et comporter un risque réel de morbi-mortalité, en particulier lors de cytolyse hépatique aiguë. La prévalence, ainsi que la fréquence réelle des complications liées à l'ingestion de champignons sont mal connues. Méthodes: Etude rétrospective dans un service d'urgence universitaire entre décembre 2004 et octobre 2011. Les codes diagnostics «intoxication aux champignons», ainsi que les termes «amanite» ou «champignons» ont été extraits de la base de données des urgences. Les caractéristiques des patients, leurs présentations cliniques, durées de séjour et complications ont été analysées. Résultats: 72 cas ont été répertoriés et revus, âge 44,3 ± 2,0 ans (moy ± SE, 95%CI 40,2-48,4), ratio H:F 1:1,2 (33H, 39F). 81% des cas sont survenus entre août et décembre. 14 cas sont arrivés sous forme de clusters familiaux (35 patients, moyenne = 2,6 cas/cluster, min: 2, max: 7). Un spécialiste en mycologie a été contacté dans 25 cas pour identifier les champignons. 69 patients (96%) sont rentrés à domicile depuis les urgences (séjour de 10,8 ± 1,3 heures, 95%CI 8,2-13,4 h). Lorsque les symptômes survenaient <= 4 heures après l'ingestion, les patients restaient moins longtemps (N = 57, durée séjour médiane 6,1 h, P25-P75 3,2-11,8 h) que les cas avec des symptômes plus tardifs (N = 15, durée séjour médiane 13,3 h, P25-P75 10,2-36,2) (p = 0,0001 selon Mann-Whitney). Une patiente a nécessité un transfert dans un centre spécialisé (intoxication par amanite phalloïde, avec dosage positif de l'alpha-amanitine). Elle a bénéficié de silibinine et d'une hospitalisation (9 jours), avec une évolution favorable sans nécessité de transplantation. Les symptômes étaient apparus tardivement (7 h). Conclusions: Sur les 72 cas, un seul (1,4%) a nécessité une prise en charge spécialisée. Les autres patients ont pu rentrer à domicile dans les heures qui ont suivi leur admission. Une grande partie des cas est survenue entre août et décembre, période favorable pour la récolte ou la consommation de champignons. Cette analyse confirme que la plupart des cas sont bénins et que les patients peuvent rentrer rapidement à domicile une fois les symptômes passés. Le seul cas potentiellement grave a présenté des symptômes tardifs et une longue hospitalisation, ce qui réaffirme les données de la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : La prise en charge de l'artériopathie périphérique et de l'ischémie critique a fortement évolué depuis plusieurs années en faveur des traitements endovasculaires. En effet, la revascularisation chirurgicale a prouvé son efficacité à moyen et long terme mais reste invasif avec un temps de séjour hospitalier prolongé. Plusieurs études ont démontré l'intérêt de la prise en charge endovasculaire afin de réduire la morbidité et diminuer la durée de séjour. Néanmoins, elle n'offre pas des taux de succès à moyen et long terme équivalent à la chirurgie. Une approche hybride chirurgicale et endovasculaire cherchant à utiliser les avantages des 2 techniques pourrait permettre d'obtenir des taux de succès élevé avec un taux de complication plus faible. Objectifs : Nos objectifs sont d'analyser rétrospectivement la population de patients ayant bénéficié d'une approche hybride pour la revascularisation des membres inférieurs pour une claudication intermittente ou une ischémie critique. Le taux de mortalité à 30 jours ainsi que les complications locales et systémiques seront relevés. Les taux de perméabilité à 12 mois seront également analysés. Finalement, le taux de sauvetage de membre ainsi que le pourcentage de déambulation seront reportés. Méthodes : La cohorte de patients ayant bénéficié d'une approche hybride dans le service de chirurgie thoracique et vasculaire du CHUV de janvier 2008 à janvier 2011 seront systématiquement inclus dans l'analyse. L'ensemble des données démographiques et angiologiques seront reportés dans un cahier d'observation. De plus, tous les événements liés à des complications locales ou systémiques seront également analysés. Les décès seront reportés. Un appel téléphonique au patient et à son médecin traitant permettra de connaître l'état de santé actuel du patient ainsi que sa capacité à la marche. Une analyse statistique comportant une courbe de survivre selon Kaplan Meier permettra d'analyser le taux de perméabilité ainsi que la survie à moyen terme. Résultats escomptés : Les résultats devraient nous démontrés un taux de perméabilité supérieur ou équivalent à la prise en charge séparée chirurgicale ou endovasculaire. De plus les complications locales devraient être inférieures au taux obtenus dans la prise en charge chirurgicale. Le taux de sauvetage de membre et de déambulation pourrait être identique à la prise en charge chirurgicale. Plus value escomptés : L'approche hybride pour la revascularisation des membres inférieurs reste peu décrite dans la littérature. Cette étude permettra de décrire de manière globale une grande cohorte de patients homogène ayant bénéficié de cette approche dans un seul centre. Elle démontrera aussi l'éventuel intérêt de ce type de prise en charge pour les patients souffrant d'une artériopathie périphérique multiétagée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact aureoles provide an excellent geologic environment to study the mechanisms of metamorphic reactions in a natural system. The Torres del Paine (TP) intrusion is one of the most spectacular natural laboratories because of its excellent outcrop conditions. It formed in a period from 12.59 to 12.43 Ma and consists of three large granite and four smaller mafic batches. The oldest granite is on top, the youngest at the bottom of the granitic complex, and the granites overly the mafic laccolith. The TP intruded at a depth of 2-3 km into regional metamorphic anchizone to greenschist facies pelites, sandstones, and conglomerates of the Cerro Toro and Punta Barrosa formations. It formed a thin contact aureole of 150-400 m width. This thesis focuses on the reaction kinetics of the mineral cordierite in the contact aureole using quantitative textural analysis methods. First cordierite was formed from chlorite break¬down (zone I, ca. 480 °C, 750 bar). The second cordierite forming reaction was the muscovite break-down, which is accompanied by a modal decrease in biotite and the appearance of k- feldspar (zone II, 540-550 °C, 750 bar). Crystal sizes of the roundish, poikiloblastic cordierites were determined from microscope thin section images by manually marking each crystal. Images were then automatically processed with Matlab. The correction for the intersection probability of each crystal radius yields the crystal size distribution in the rock. Samples from zone I below the laccolith have the largest crystals (0.09 mm). Cordierites from zone II are smaller, with a maximum crystal radius of 0.057 mm. Rocks from zone II have a larger number of small cordierite crystals than rocks from zone I. A combination of these quantitative analysis with numerical modeling of nucleation and growth, is used to infer nucleation and growth parameters which are responsible for the observed mineral textures. For this, the temperature-time paths of the samples need to be known. The thermal history is complex because the main body of the intrusion was formed by several intrusive batches. The emplacement mechanism and duration of each batch can influence the thermal structure in the aureole. A possible subdivision of batches in smaller increments, so called pulses, will focus heat at the side of the intrusion. Focusing all pulses on one side increases the contact aureole size on that side, but decreases it on the other side. It forms a strongly asymmetric contact aureole. Detailed modeling shows that the relative thicknesses of the TP contact aureole above and below the intrusion (150 and 400 m) are best explained by a rapid emplacement of at least the oldest granite batch. Nevertheless, temperatures are significantly too low in all models, compared to observed mineral assemblages in the hornfelses. Hence, an other important thermal mechanisms needs to take place in the host rock. Clastic minerals in the immature sediments outside the contact aureole are hydrated due to small amounts of expelled fluids during contact metamorphism. This leads to a temperature increase of up to 50 °C. The origin of fluids can be traced by stable isotopes. Whole rock stable isotope data (6D and δ180) and chlorine concentrations in biotite document that the TP intrusion induced only very small amounts of fluid flow. Oxygen whole rock data show δ180 values between 9.0 and 10.0 %o within the first 5 m of the contact. Values increase to 13.0 - 15.0 %o further away from the intrusion. Whole rock 6D values display a more complex zoning. First, host rock values (-90 to -70 %o) smoothly decrease towards the contact by ca. 20 %o, up to a distance of ca. 150 m. This is followed by an increase of ca. 20 %o within the innermost 150 m of the aureole (-97.0 to -78 %o at the contact). The initial decrease in 6D values is interpreted to be due to Rayleigh fractionation accompanying the dehydration reactions forming cordierite, while the final increase reflects infiltration of water-rich fluids from the intrusion. An over-estimate on the quantity and the corresponding thermal effect yields a temperature increase of less than 30 °C. This suggests that fluid flow might have contributed only for a small amount to the thermal evolution of the system. A combination of the numerical growth model with the thermal model, including the hydration reaction enthalpies but neglecting fluid flow and incremental growth, can be used to numerically reproduce the observed cordierite textures in the contact aureole. This yields kinetic parameters which indicate fast cordierite crystallization before the thermal peak in the inner aureole, and continued reaction after the thermal peak in the outermost aureole. Only small temperature dependencies of the kinetic parameters seem to be needed to explain the obtained crystal size data. - Les auréoles de contact offrent un cadre géologique privilégié pour l'étude des mécanismes de réactions métamorphiques associés à la mise en place de magmas dans la croûte terrestre. Par ses conditions d'affleurements excellentes, l'intrusion de Torres del Paine représente un site exceptionnel pour améliorer nos connaissances de ces processus. La formation de cette intrusion composée de trois injections granitiques principales et de quatre injections mafiques de volume inférieur couvre une période allant de 12.50 à 12.43 Ma. Le plus vieux granite forme la partie sommitale de l'intrusion alors que l'injection la plus jeune s'observe à la base du complexe granitique; les granites recouvrent la partie mafique du laccolite. L'intrusion du Torres del Paine s'est mise en place a 2-3 km de profondeur dans un encaissant métamorphique. Cet encaissant est caractérisé par un métamorphisme régional de faciès anchizonal à schiste vert et est composé de pélites, de grès, et des conglomérats des formations du Cerro Toro et Punta Barrosa. La mise en place des différentes injections granitiques a généré une auréole de contact de 150-400 m d'épaisseur autour de l'intrusion. Cette thèse se concentre sur la cinétique de réaction associée à la formation de la cordiérite dans les auréoles de contact en utilisant des méthodes quantitatives d'analyses de texture. On observe plusieurs générations de cordiérite dans l'auréole de contact. La première cordiérite est formée par la décomposition de la chlorite (zone I, environ 480 °C, 750 bar), alors qu'une seconde génération de cordiérite est associée à la décomposition de la muscovite, laquelle est accompagnée par une diminution modale de la teneur en biotite et l'apparition de feldspath potassique (zone II, 540-550 °C, 750 bar). Les tailles des cristaux de cordiérites arrondies et blastic ont été déterminées en utilisant des images digitalisées des lames minces et en marquant individuellement chaque cristal. Les images sont ensuite traitées automatiquement à l'aide du programme Matlab. La correction de la probabilité d'intersection en fonction du rayon des cristaux permet de déterminer la distribution de la taille des cristaux dans la roche. Les échantillons de la zone I, en dessous du lacolite, sont caractérisés par de relativement grands cristaux (0.09 mm). Les cristaux de cordiérite de la zone II sont plus petits, avec un rayon maximal de 0.057 mm. Les roches de la zone II présentent un plus grand nombre de petits cristaux de cordiérite que les roches de la zone I. Une combinaison de ces analyses quantitatives avec un modèle numérique de nucléation et croissance a été utilisée pour déduire les paramètres de nucléation et croissance contrôlant les différentes textures minérales observées. Pour développer le modèle de nucléation et de croissance, il est nécessaire de connaître le chemin température - temps des échantillons. L'histoire thermique est complexe parce que l'intrusion est produite par plusieurs injections successives. En effet, le mécanisme d'emplace¬ment et la durée de chaque injection peuvent influencer la structure thermique dans l'auréole. Une subdivision des injections en plus petits incréments, appelés puises, permet de concentrer la chaleur dans les bords de l'intrusion. Une mise en place préférentielle de ces puises sur un côté de l'intrusion modifie l'apport thermique et influence la taille de l'auréole de contact produite, auréole qui devient asymétrique. Dans le cas de la première injection de granite, une modélisation détaillée montre que l'épaisseur relative de l'auréole de contact de Torres del Paine au-dessus et en dessous de l'intrusion (150 et 400 m) est mieux expliquée par un emplacement rapide du granite. Néanmoins, les températures calculées dans l'auréole de con¬tact sont trop basses pour que les modèles thermiques soient cohérants par rapport à la taille de cette auréole. Ainsi, un autre mecanisme exothermique est nécessaire pour permettre à la roche encais¬sante de produire les assemblages observés. L'observation des roches encaissantes entourant les granites montre que les minéraux clastiques dans les sédiments immatures au-dehors de l'auréole sont hydratés suite à la petite quantité de fluide expulsée durant le métamorphisme de contact et/ou la mise en place des granites. Les réactions d'hydratation peuvent permettre une augmentation de la température jusqu'à 50 °C. Afin de déterminer l'origine des fluides, une étude isotopique de roches de l'auréole de contact a été entreprise. Les isotopes stables d'oxygène et d'hydrogène sur la roche totale ainsi que la concentration en chlore dans la biotite indiquent que la mise en place des granites du Torres del Paine n'induit qu'une circulation de fluide limitée. Les données d'oxygène sur roche totale montrent des valeurs δ180 entre 9.0 et 10.0%o au sein des cinq premiers mètres du contact. Les valeurs augmentent jusqu'à 13.0 - 15.0 plus on s'éloigne de l'intrusion. Les valeurs 5D sur roche totale montrent une zonation plus complexe. Les valeurs de la roche encaissante (-90 à -70%o) diminuent progressivement d'environ 20%o depuis l'extérieur de l'auréole jusqu'à une distance d'environ 150 m du granite. Cette diminution est suivie par une augmentation d'environ 20%o au sein des 150 mètres les plus proches du contact (-97.0 à -78%o au contact). La diminution initiale des valeurs de 6D est interprétée comme la conséquence du fractionnement de Rayleigh qui accompagne les réactions de déshydratation formant la cordiérite, alors que l'augmentation finale reflète l'infiltration de fluide riche en eau venant de l'intrusion. A partir de ces résultats, le volume du fluide issu du granite ainsi que son effet thermique a pu être estimé. Ces résultats montrent que l'augmentation de température associée à ces fluides est limitée à un maximum de 30 °C. La contribution de ces fluides dans le bilan thermique est donc faible. Ces différents résultats nous ont permis de créer un modèle thermique associé à la for¬mation de l'auréole de contact qui intègre la mise en place rapide du granite et les réactions d'hydratation lors du métamorphisme. L'intégration de ce modèle thermique dans le modèle numérique de croissance minérale nous permet de calculer les textures des cordiérites. Cepen¬dant, ce modèle est dépendant de la vitesse de croissance et de nucléation de ces cordiérites. Nous avons obtenu ces paramètres en comparant les textures prédites par le modèle et les textures observées dans les roches de l'auréole de contact du Torres del Paine. Les paramètres cinétiques extraits du modèle optimisé indiquent une cristallisation rapide de la cordiérite avant le pic thermique dans la partie interne de l'auréole, et une réaction continue après le pic thermique dans la partie la plus externe de l'auréole. Seules de petites dépendances de température des paramètres de cinétique semblent être nécessaires pour expliquer les don¬nées obtenues sur la distribution des tailles de cristaux. Ces résultats apportent un éclairage nouveau sur la cinétique qui contrôle les réactions métamorphiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objet de la thèse est l'étude de l'endecasillabo dans l'oeuvre poétique de Giacomo Leopardi. D'un point de vue méthodologique, ce travail s'appuie sur la recherche de Marco Praloran et Arnaldo Soldani dédiée à l'endecasillabo de Pétrarque. L'auteur a comparé les Canti de Leopardi avec la production des plus grands écrivains de la fin du XIXème siècle et du début du XXème siècle Melchiorre Cesarotti (Poesie di Ossian), Giuseppe Parini (Il Mattino), Vittorio Alfieri (Le Rime e il Saul), Vincenzo Monti (l'ouvre poétique), Ugo Foscolo (Le Rime) et Alessandro Manzoni (l'oeuvre poétique). Nous avons là un répertoire de plusieurs milliers de vers qui ont été scandés non pas par l'intermédiaire d'un ordinateur, mais un à un en fonction de leur intonation. La première partie de la thèse est dédiée à l'analyse du rythme des différents auteurs, à des statistiques générales qui permettent de comparer ces données entre elles et avec les anciens auteurs italiens tels Dante, Pétrarque, Arioste, etc. De cette façon, nous pouvons avoir une vision globale de la prosodie italienne des origines jusqu'au XIXème siècle -vision qui permet de focaliser de manière exhaustive la technique de Leopardi. Dans la deuxième partie, l'auteur propose texte après texte la scansion de toute l'oeuvre poétique de Leopardi. Nous avons donc une lecture interprétative du rythíne de tous les poèmes qui tient compte de l'année de composition et les différentes typologies métriques des textes : par exemple, les canzoni, les idilli, les canti pisano-recanatesi. Dans cette deuxième partie, il faut souligner l'effort de lier la partition du rythme au contenu des différents textes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Ce travail jette un regard nouveau sur l'information documentaire publique. A travers l'analyse des régulations qui régissent l'archivage, la préservation du patrimoine documentaire et la gestion des documents au niveau national en Suisse, il propose en effet l'application d'un concept d'analyse fédérateur, habituellement exploité pour la compréhension du fonctionnement des res¬sources naturelles. Après avoir exposé que la création, la gestion et la préservation de l'information sont historiquement liées à l'exercice du pouvoir, au système politique en place et au développement des technologies de l'information, ce travail montre que - à la suite des importants changements dus au développe¬ment de la société du savoir et des nouvelles technologies de l'information - les politiques concernées en Suisse sont en train de converger. Ce mouve¬ment, signe de la lente reconnaissance de l'existence d'une ressource unique, va de pair avec le développement d'un système de règles. Cette ressource, désignée par le terme générique d'information, est en train de devenir un enjeu politique et économique fondamental : comme les ressources natu¬relles, elle exige de la part des acteurs publics une prise en charge appropriée afin d'assurer sa durabilité - c'est-à-dire sa capacité de renouvellement - en régulant les rivalités entre usages compétitifs, qui risquent de mettre cette ressource en péril. Ainsi, par l'application d'un modèle d'analyse appelé Régime institutionnel des ressources (RIR), ce travail évalue la durabilité de la ressource information en vérifiant l'existence et la mise en oeuvre de règles pour cha¬cun des usages identifiés de cette ressource. A partir des huit études de cas (consacrées aux archives d'Etat, aux Helvetica, aux données météoro¬logiques et climatologiques, aux données statistiques, aux données d'observation des sols, aux données de la mensuration officielle, aux don¬nées d'état civil et aux données de la taxe sur la valeur ajoutée), notre analyse qualitative montre que, si la durabilité de la ressource est assurée à court terme, elle ne l'est pas sur le long terme. En effet, en dépit des progrès significatifs qui ont été faits ces dernières années, notamment en termes de gestion des documents, le régime institu¬tionnel de la ressource information présente des failles : les principales rivalités existantes ne sont pas contrôlées par des régulations spécifiques. Ainsi, l'identification des informations disponibles, la traçabilité de celles-ci, la sélection de celles qu'il convient de préserver à long terme et, enfin, leur conservation physique continueront à poser problème à l'avenir. Le document se clôt sur l'encouragement à poursuivre les travaux scienti¬fiques et politiques dans ce domaine, dans le but de bénéficier enfin d'une compréhension plus approfondie des mécanismes qui le régissent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Sommaire] Résumé. 1. Introduction. 2. Mandat et méthode. 3. Description et analyse de la permanence téléphonique 0800 801 381 (Fonctionnement - Evolution des appels - Analyse de la clientèle en 2010 - Synthèse des données statistiques - Stratégies de promotion de la permanence - Statistiques du site www.sos-jeu.ch). 4. Autres lignes d'aide en Suisse. 5. Autres type d'offres en Suisse romande pour les personnes dépendantes au jeu. 6. Lignes téléphoniques d'aide dédiées au jeu au niveau international. 7. Réponses aux questions d'évaluation et recommandations. Annexes. Bibliogr. p. 79

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Introduction : L'objectif de cette étude est de déterminer l'influence de la dissection du palais lors de la chirurgie primaire et le type de chirurgie orthognathique requise chez les patients porteurs d'une séquelle de fente labio-maxillo-palatine unilatérale complète Méthode : Cette revue porte sur 58 enfants nés avec une fente labio-maxillo-palatine complète unilatérale et traités entre 1994 et 2008 à Page approprié pour une chirurgie orthognathique. C'est une étude rétrospective longitudinale mixte. Les patients avec des syndromes ou anomalies associées ont été exclus. Tous les patients ont été traités parle même orthodontiste et par la même équipe chirurgicale. Les enfants sont divisés en deux groupes; le premier comprend les patients avec une chirurgie primaire du palais conventionnelle, avec un décollement extensif de la fibro-muqueuse palatine. Le deuxième groupe comprend les patients opérés selon le protocole de Malek. Le palais mou est fermé a |'âge de trois mois, le palais dur à |'âge de six mois, avec un décollement minimal de la tibro-muqueuse palatine. Les radiographies du crâne de profil ainsi que les données chirurgicales ont été comparées. Résultats: La nécessité d'une chirurgie orthognathique est plus élevée dans le premier groupe par rapport au deuxième (60% versus 47,8%). Concernant le type de chirurgie orthognathique réalisé, des ostéotomies Lefort I en deux ou trois pièces ou des ostéotomies bi-maxillaires ont aussi été plus fréquentes dans le premier groupe Conclusion : La chirurgie primaire du palais selon le protocole de Malek améliore le pronostic des patients avec une fente labio-maxillo-palatine. Avec un décollement minimal de la fibro-muqueuse palatine, le nombre d'interventions de chirurgie orthognathique a été diminué. Lorsque ces opérations étaient néanmoins indiquées, elles étaient simplifiées.