996 resultados para Milieu naturel
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
Résumé: Depuis plusieurs années, le thème des réseaux sociaux est au centre de l'intérêt des études historiques. Est-il possible de formaliser l'analyse de réseaux sociaux spécifiques - parenté, clientèle, solidarités locales, etc. - afin d'en analyser l'influence sur des événements historiques et des individus précis ? L'étude présentée prend en considération les luttes souvent violentes entre radicaux et conservateurs dans le Val de Bagnes, en Valais (Suisse), entre 1839 et 1900. La comparaison entre les généalogies des familles de la vallée et les informations sur la vie politique et sociale nous permet de relever l'influence de la parenté dans l'organisation des factions politiques. Les réseaux de parenté sont toutefois ouverts et souples, permettant des adaptations aux évolutions de la situation politique, économique et sociale. L'affaire autour du faux-monnayeur italien Joseph S. Farinet, dans les années 1870, nous permet par exemple de suivre l'évolution des réseaux de solidarité, à la suite d'une crise politique, ainsi que l'émergence de nouvelles activités économiques, notamment le tourisme, avec les hôteliers, les aubergistes et les guides de montagne souvent liés au milieu radical. L'analyse permet également de nuancer l'influence des réseaux de patronage : les collaborations horizontales, à l'intérieur des classes populaires, semblent mieux expliquer les solidarités politiques. Abstract: For several years, historians have been closely concerned with the question of social networks. Is it possible to conceptualize specific networks - like kinship, patronage or local solidarities - and to analyze their influence on concrete individuals or historical events? This paper considers the violent struggles between a radical political faction and a conservative one in a Swiss alpine valley, the Val de Bagnes (Valais) between 1839 and 1900. It compares information about political and social conflicts in the valley with genealogies of local families. By this way the eminent influence of kinship ties on political organizations becomes visible. But kinship networks are open and very supple, allowing adaptations to new political and social configurations. The trials against the Italian smuggler and counterfeiter Joseph S. Farinet in the Seventies allow to describe the evolution of local cooperation networks as a consequence of a political crisis in the canton of Valais and of new economic activities. The paper stresses the active role of a emerging group of hotel- or inn-owners and mountain guides, often closely tied with the radical milieu. The analysis of social transactions raises critical questions about the role of patronage in political mobilization: horizontal cooperation and kinship ties between peasants, small cattle owners and artisans seem to explain political solidarities better than patronage structures.
Resumo:
RESUME: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse Les canaux sodiques ASICs (Acid-Sensing Ion Channels) participent à la signalisation neuronale dans les systèmes nerveux périphérique et central. Ces canaux non voltage dépendants sont impliqués dans l'apprentissage, l'expression de la peur, la neurodégénération consécutive à une attaque cérébrale et la douleur. Les bases moléculaires sous-tendant leur activité ne sont pas encore totalement comprises. Ces canaux sont activés par une acidification du milieu extracellulaire et régulés, entre autres, par des ions tels que le Ca2+, le Zn2+ et le CI". La cristallisation de ASIC inactivé a été publiée. Le canal est un trimére de sous-unités identiques ou homologues. Chaque sous-unité a été décrite en analogie à un avant bras, un poignet et une main constituée d'un pouce, d'un doigt, d'une articulation, une boule β et une paume. Nous avons appliqué une approche bioinformatique systématique pour identifier les pH senseurs putatifs de ASICIa. Le rôle des pH senseurs putatifs a été testé par mutagénèse dirigée et des modifications chimiques combinées à une analyse fonctionnelle afin de comprendre comment les variations de ρ H ouvrent ces canaux. Les pH senseurs sont des acides aspartiques et glutamiques éparpillés sur la boucle extracellulaire suggérant que les changements de pH contrôlent l'activation et l'inactivation de ASIC en (dé)protonant ces résidus en divers endroits de la protéine. Par exemple lors de l'activation, la protonation des résidus à l'interface entre le pouce, la boule β et le doigt d'une même sous-unité induit un mouvement du pouce vers la bouie β et le doigt. De même lors de l'inactivation du canal les paumes des trois sous-unités formant une cavité se rapprochent. D'après notre approche bioinformatique, aucune histidine n'est impliquée dans la détection des variations de pH extracellulaire c'est-à-dire qu'aucune histidine ne serait un pH-senseur. Deux histidines de ASIC2a lient le Zn2+ et modifient l'affinité apparente du canal pour les protons. Une seule des deux est conservée parmi tous les ASICs, hASICIa H163. Elle forme un réseau de liaison hydrogène avec ses voisins conservés. L'étude détaillée de ce domaine, Pinterzone, montre son importance dans l'expression fonctionnelle des canaux. La perturbation de ce réseau par l'introduction d'un résidu hydrophobe (cystéine) par mutagénèse dirigée diminue l'expression du canal à la membrane plasmique. La modification des cystéines introduites par des réactifs spécifiques aux groupements sulfhydryle inhibe les canaux mutés en diminuant leur probabilité d'ouverture. Ces travaux décrivent les effets de l'acidification du milieu extracellulaire sur les canaux ASICs. ABSTRACT: Study of pH-dependent activation and inactivation of ASIC channels Benoîte BARGETON, Department of Pharmacology and Toxicology, University of Lausanne, Rue du Bugnon 27, CH-1G05 Lausanne, Switzerland The ASIC (Acid-Sensing Ion Channels) sodium channels are involved in neuronal signaling in the central and peripheral nervous system. These non-voltage-gated channels are involved in learning, the expression of fear, neurodegeneration after ischemia and pain sensation. The molecular bases underlying their activity are not yet fully understood. ASICs are activated by extracellular acidification and regulated, eg by ions such as Ca2+, the Zn2+ and CI". The crystallization of inactivated ASIC has been published. The channel is a trimer of identical or homologous subunits. Each subunit has been described in analogy to a forearm, wrist and hand consisting of a thumb, a finger, a knuckle, a β-ball and a palm. We applied a systematic computational approach to identify putative pH sensor(s) of ASICIa. The role of putative pH sensors has been tested by site-directed mutagenesis and chemical modification combined with functional analysis in order to understand how changes in pH open these channels. The pH sensors are aspartic and glutamic acids distributed throughout the extracellular loop, suggesting that changes in pH control activation and inactivation of ASIC by protonation / deprotonation of many residues in different parts of the protein. During activation the protonation of various residues at the interface between the finger, the thumb and the β-ball induces the movement of the thumb toward the finger and the β-ball. During inactivation of the channel the palms of the three subunits forming a cavity approach each other. No histidine has been shown to be involved in extracellular pH changes detection, i.e. no histidine is a pH- sensor. Two histidines of ASIC2 bind Zn2+ and alter the apparent affinity of channel for protons. Only one of the two His is conserved among all ASICs, hASICIa H163. This residue is part of a network of hydrogen bonding with its conserved neighbors. The detailed study of this area, the interzone, shows its importance in the functional expression of ASICs. Disturbance of this network by the introduction of hydrophobic residues decreases the cell surface channel expression. Chemical modification of the introduced cysteines by thiol reactive compounds inhibits the mutated channels by a reduction of their open probability. These studies describe the effects of extracellular acidification on ASICs. RESUME GRAND PUBLIC: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse La transmission synaptique est un processus chimique entre deux neurones impliquant des neurotransmetteurs et leurs récepteurs. Un dysfonctionnement de certains types de synapses est à l'origine de beaucoup de troubles nerveux, tels que certaine forme d'épilepsie et de l'attention. Les récepteurs des neurotransmetteurs sont de très bonnes cibles thérapeutiques dans de nombreuses neuropathologies. Les canaux ASICs sont impliqués dans la neurodégénération consécutive à une attaque cérébrale et les bloquer pourraient permettre aux patients d'avoir moins de séquelles. Les canaux ASICs sont des détecteurs de l'acidité qui apparaît lors de situations pathologiques comme l'ischémie et l'inflammation. Ces canaux sont également impliqués dans des douleurs. Cibler spécifiquement ces canaux permettrait d'avoir de nouveaux outils thérapeutiques car à l'heure actuelle l'inhibiteur de choix, l'amiloride, bloque beaucoup d'autres canaux empêchant son utilisation pour bloquer les ASICs. C'est pourquoi il faut connaître et comprendre les bases moléculaires du fonctionnement de ces récepteurs. Les ASICs formés de trois sous-unités détectent les variations de l'acidité puis s'ouvrent transitoirement pour laisser entrer des ions chargés positivement dans la cellule ce qui active la signalisation neuronale. Afin de comprendre les bases moléculaires de l'activité des ASICs nous avons déterminé les sites de liaison des protons (pH-senseurs), ligands naturels des ASICs et décrit une zone importante pour l'expression fonctionnelle de ces canaux. Grâce à une validation systématique de résultats obtenus en collaboration avec l'Institut Suisse de Bioinformatique, nous avons décrit les pH-senseurs de ASICIa. Ces résultats, combinés à ceux d'autres groupes de recherche, nous ont permis de mieux comprendre comment les ASICs sont ouverts par une acidification du milieu extracellulaire. Une seconde étude souligne le rôle structural crucial d'une région conservée parmi tous les canaux ASICs : y toucher c'est diminuer l'activité de la protéine. Ce domaine permet l'harmonisation des changements dus à l'acidification du milieu extracellulaire au sein d'une même sous-unité c'est-à-dire qu'elle participe à l'induction de l'inactivation due à l'activation du canal Cette étude décrit donc quelle région de la protéine atteindre pour la bloquer efficacement en faisant une cible thérapeutique de choix.
Resumo:
Découverts en 1993 dans Caenorhabditis elegans, les microARNs sont une nouvelle famille¦de molécules, simples brin d'ARN non-codant d'environ 20 nucléotides. Ce sont des régulateurs,¦capables d'inhiber l'expression de gènes dans les cellules eucaryotes. Ils jouent un rôle dans¦d'importants processus comme la prolifération cellulaire, l'apoptose, l'inflammation, et la¦différenciation tissulaire. C'est pour cela que des variations de la quantité de microARNs dans le¦corps humain peuvent engendrer diverses maladies comme le diabète, le cancer et différentes¦pathologies cardiovasculaires. Dans le futur, une meilleure compréhension des microARNs et de¦leurs mécanismes d'action pourrait aider à découvrir de nouveaux outils pour traiter ou prévenir¦certaines maladies. Les objectifs de ce travail étaient de faire une recherche de¦littérature sur les microARNs et leurs implications dans le diabète dans un premier temps, puis de¦poursuivre avec des manipulations de laboratoire pour mesurer l'activité et la fonction de¦microARNs dans la cellule bêta pancréatique dans le modèle de la gestation. La méthode utilisée¦pour l'étude bibliographique a été une recherche sur la base de données Pubmed. Pour les¦manipulations au laboratoire, deux microARNs ont été étudiés miR-325-5p et miR-874, afin¦d'évaluer l'impact de la surexpression ou le knock down de ces deux microARNs sur les fonctions¦de cellules bêta pancréatiques comme la prolifération et l'apoptose. Ces techniques étaient¦parfaitement au point dans le laboratoire d'accueil. En ce qui me concerne, ce travail m'a permis¦d'approfondir mes connaissances sur un sujet nouveau et de mettre un pied dans le milieu de la¦recherche fondamentale.
Resumo:
RésuméEn agriculture d'énormes pertes sont causées par des champignons telluriques pathogènes tels que Thielaviopsis, Fusarium, Gaeumannomyces et Rhizoctonia ou encore l'oomycète Pythium. Certaines bactéries dites bénéfiques, comme Pseudomonas fluorescens, ont la capacité de protéger les plantes de ces pathogènes par la colonisation de leur racines, par la production de métabolites secondaires possédants des propriétés antifongiques et par l'induction des mécanismes de défenses de la plante colonisée. P. fluorescens CHAO, une bactérie biocontrôle isolée d'un champ de tabac à Payerne, a la faculté de produire un large spectre de métabolites antifongiques, en particulier le 2,4- diacétylphloroglucinol (DAPG), la pyolutéorine (PLT), le cyanure d'hydrogène (HCN), la pyrrolnitrine (PRN) ainsi que des chélateurs de fer.La plante, par sécrétion racinaire, produit des rhizodéposites, source de carbone et d'azote, qui profitent aux populations bactériennes vivant dans la rhizosphere. De plus, certains stresses biotiques et abiotiques modifient cette sécrétion racinaire, en terme quantitatif et qualitatif. De leur côté, les bactéries bénéfiques, améliorent, de façon direct et/ou indirect, la croissance de la plante hôte. De nombreux facteurs biotiques et abiotiques sont connus pour réguler la production de métabolites secondaires chez les bactéries. Des études récentes ont démontré l'importance de la communication entre la plante et les bactéries bénéfiques afin que s'établisse une interaction profitant à chacun des deux partis. Il est ainsi vraisemblable que les populations bactériennes associées aux racines soient capables d'intégrer ces signaux et d'adapter spécifiquement leur comportement en conséquence.La première partie de ce travail de thèse a été la mise au point d'outils basés sur la cytométrie permettant de mesurer l'activité antifongique de cellules bactériennes individuelles dans un environnent naturel, les racines des plantes. Nous avons démontré, grâce à un double marquage aux protéines autofluorescentes GFP et mCherry, que les niveaux d'expression des gènes impliqués dans la biosynthèse des substances antifongiques DAPG, PLT, PRN et HCN ne sont pas les mêmes dans des milieux de cultures liquides que sur les racines de céréales. Par exemple, l'expression de pltA (impliqué dans la biosynthèse du PLT) est quasiment abolie sur les racines de blé mais atteint un niveau relativement haut in vitro. De plus cette étude a mis en avant l'influence du génotype céréalien sur l'expression du gène phlA qui est impliqué dans la biosynthèse du DAPG.Une seconde étude a révélé la communication existant entre une céréale (orge) infectée par le pathogène tellurique Pythium ultimum et P. fluorescens CHAO. Un système de partage des racines nous a permis de séparer physiquement le pathogène et la bactérie bénéfique sur la plante. Cette méthode a donné la possibilité d'évaluer l'effet systémique, causé par l'attaque du pathogène, de la plante sur la bactérie biocontrôle. En effet, l'infection par le phytopathogène modifie la concentration de certains composés phénoliques dans les exsudats racinaires stimulant ainsi l'expression de phi A chez P.fluorescens CHAO.Une troisième partie de ce travail focalise sur l'effet des amibes qui sont des micro-prédateurs présents dans la rhizosphere. Leur présence diminue l'expression des gènes impliqués dans la biosynthèse du DAPG, PLT, PRN et HCN chez P.fluorescens CHAO, ceci en culture liquide et sur des racines d'orge. De plus, des molécules provenant du surnageant d'amibes, influencent l'expression des gènes requis pour la biosynthèse de ces antifongiques. Ces résultats illustrent que les amibes et les bactéries de la rhizosphere ont développé des stratégies pour se reconnaître et adapter leur comportement.La dernière section de ce travail est consacrée à l'acide indole-acétique (LA.A), une phytohormone connue pour son effet stimulateur sur phlA. Une étude moléculaire détaillée nous a démontré que cet effet de l'IAA est notamment modulé par une pompe à efflux (FusPl) et de son régulateur transcriptionnel (MarRl). De plus, les gènes fusPl et marRl sont régulés par d'autres composés phénoliques tels que le salicylate (un signal végétal) et l'acide fusarique (une phytotoxine du pathogène Fusarium).En résumé, ce travail de thèse illustre la complexité des interactions entre les eucaryotes et procaryotes de la rhizosphère. La reconnaissance mutuelle et l'instauration d'un dialogue moléculaire entre une plante hôte et ses bactéries bénéfiques associées? sont indispensables à la survie des deux protagonistes et semblent être hautement spécifiques.SummaryIn agriculture important crop losses result from the attack of soil-borne phytopathogenic fungi, including Thielaviopsis, Fusarium, Gaeumannomyces and Rhizoctonia, as well as from the oomycete Pythium. Certain beneficial microorganisms of the rhizosphere, in particular Pseudomonas fluorescens, have the ability to protect plants against phytopathogens by the intense colonisation of roots, by the production of antifungal exoproducts, and by induction of plant host defences. P. fluorescens strain CHAO, isolated from a tobacco field near Payerne, produces a large array of antifungal exoproducts, including 2,4-diacetylphloroglucinol (DAPG), pyoluteorin (PLT), hydrogen cyanide (HCN), pyrrolnitrin (PRN) and iron chelators. Plants produce rhizodeposites via root secretion and these represent a relevant source of carbon and nitrogen for rhizosphere microorganisms. Various biotic and abiotic stresses influence the quantity and the quality of released exudates. One the other hand, beneficial bacteria directly or indirectly promote plant growth. Biotic and abiotic factors regulate exoproduct production in biocontrol microorganisms. Recent studies have highlighted the importance of communication in establishing a fine-tuned mutualist interaction between plants and their associated beneficial bacteria. Bacteria may be able to integrate rhizosphere signals and adapt subsequently their behaviour.In a first part of the thesis, we developed a new method to monitor directly antifungal activity of individual bacterial cells in a natural environment, i.e. on roots of crop plants. We were able to demonstrate, via a dual-labelling system involving green and red fluorescent proteins (GFP, mCherry) and FACS-based flow cytometry, that expression levels of biosynthetic genes for the antifungal compounds DAPG, PLT, PRN, and HCN are highly different in liquid culture and on roots of cereals. For instance, expression of pltA (involved in PLT biosynthesis) was nearly abolished on wheat roots whereas it attained a relatively high level under in vitro conditions. In addition, we established the importance of the cereal genotype in the expression of phi A (involved in DAPG biosynthesis) in P. fluorescens CHAO.A second part of this work highlighted the systemic communication that exists between biocontrol pseudomonads and plants following attack by a root pathogen. A split-root system, allowing physical separation between the soil-borne oomycete pathogen Phytium ultimum and P. fluorescens CHAO on barley roots, was set up. Root infection by the pathogen triggered a modification of the concentration of certain phenolic root exudates in the healthy root part, resulting in an induction ofphlA expression in P. fluorescens CHAO.Amoebas are micro-predators of the rhizosphere that feed notably on bacteria. In the third part of the thesis, co-habitation of Acanthamoeba castellanii with P. fluorescens CHAO in culture media and on barley roots was found to significantly reduce bacterial expression of genes involved in the biosynthesis of DAPG, PLT, HCN and PRN. Interestingly, molecular cues present in supernatant of A. castelanii induced the expression of these antifungal genes. These findings illustrate the strategies of mutual recognition developed by amoeba and rhizosphere bacteria triggering responses that allow specific adaptations of their behaviour.The last section of the work focuses on indole-3-acetic acid (IAA), a phytohormone that stimulates the expression of phi A. A detailed molecular study revealed that the IAA-mediated effect on phi A is notably modulated by an efflux pump (FusPl) and its transcriptional regulator (MarRl). Remarkably, transcription of fusPl and marRl was strongly upregulated in presence of other phenolic compounds such as salicylate (a plant signal) and fusaric acid (a phytotoxin of the pathogenic fungus Fusarium).To sum up, this work illustrates the great complexity of interactions between eukaryotes and prokaryotes taking place in the rhizosphere niche. The mutual recognition and the establishment of a molecular cross-talk between the host plant and its associated beneficial bacteria are essential for the survival of the two partners and these interactions appear to be highly specific.
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
La triangulation des données sur la vie nocturne fait partie du projet de Safer Nightlife Suisse (SNS) en accord avec l'Office fédéral de la santé publique. Cette année, c'est la première fois qu'un état des lieux est disponible pour un projet de triangulation des données. L'idée d'une triangulation des données complémentaire sur la base des chiffres pertinents de la prévalence de la consommation de substances dans la vie nocturne en Suisse, dont les sources divergent beaucoup, vise à estimer la réalité de la consommation. Dans ce premier rapport de triangulation, il s'agit d'une intégration des différentes données nationales disponibles sur la consommation de substances ainsi que de leur pondération selon leur pertinence. On trouvera la description du processus, la présentation des données disponibles ainsi qu'une première synthèse des évaluations de la tendance de la consommation de substances en Suisse.
Resumo:
Cet article présente une pratique de consultation psychanalytique développée par des psychologues tra- vaillant en milieux éducatifs et pédagogiques. Les auteurs se réfèrent à des concepts issus de l'école de psychanalyse britannique de la relation d'objet pour monter comment le processus de «présence théra- peutique » peut améliorer et enrichir les interventions en milieu scolaire. Les bénéfices engendrés par une « présence thérapeutique » sur les lieux scolaires et éducatifs et les défis rencontrés seront discutés. Des illustrations cliniques ainsi que des exemples issus de notre pratique avec les enfants, leur famille et les professionnels de l'enfance, que ce soit dans les écoles primaires et secondaires, les garderies, les services spécialisés ou les lieux de formation serviront d'illustration des concepts théoriques présentés.
Resumo:
La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.
Resumo:
Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.
Resumo:
Le projet s'intéresse aux socialisations des jeunes cyclistes sur route dans la phase de la carrière où ils deviennent des espoirs nationaux. Pour certains, cela correspond au passage d'une structure sportive amateur de haut niveau vers une équipe professionnelle. Cette phase semble constituer un moment clé de la consommation de produits dopants. Ces espoirs sont exposés à un nouvel environnement et une nouvelle logique professionnelle s'impose à eux, avec ses espoirs de carrière et de profits et ses risques. Ils sont confrontés à de nouveaux groupes sociaux avec lesquels s'établit un système d'interactions. Avec le temps, ces groupes vont notamment inculquer aux jeunes coureurs de nouvelles normes en matière de santé, de fatigue, d'expériences, d'éthique et d'entraînement.Il s'agit plus particulièrement d'observer les modes de socialisation des jeunes espoirs du cyclisme pour comprendre comment s'immiscent les pratiques de dopage dans les biographies des sportifs. Dans une optique de prévention, ce travail se propose d'étudier les effets de la socialisation. Comme le souligne H. Becker (1985), la déviance est le fruit d'un acte collectif. Il s'agit alors de comprendre comment, au contact de divers groupes encadrants (pairs, entraîneurs, dirigeants, médecins), les savoir-faire mais aussi les normes, les valeurs se construisent au cours de la phase de socialisation professionnelle. Il est important de comprendre les effets des interactions entre ces groupes et le jeune espoir. Cette socialisation semble correspondre à l'inculcation d'une culture cycliste qu'il s'agira de décrire en prenant en compte deux formes de transmission des normes : une explicite, à certains moments de la journée, où sont abordées les techniques de course, les tactiques, les modes d'entraînement et une implicite, pendant laquelle sont diffusées des valeurs qui conduisent le sportif à faire le choix du dopage. Dans le cas du dopage, nous nous intéresserons notamment aux normes de santé, d'éthique, aux conceptions de la pratique sportive en adéquation avec le suivi médical pendant la phase amateur puis néo-professionnelle. La formation, ou transformation, de ces représentations sera appréhendée à travers les interactions entre coureurs et encadrement lors des différents moments de leur quotidien. Il s'agira également d'étudier le cadre social de ces interactions. A partir des récits de vie collectés, nous essayerons de déterminer les moments où les choix s'opèrent et nous y analyserons les conduites.L'acquisition des représentations associées au dopage est le produit du double mouvement de l'action sociale des individus et des effets des structures organisationnelles et institutionnelles. En conséquence, nous nous intéresserons également à l'influence des différents dispositifs tels que la famille, l'école, le club, la structure médicale, la fédération nationale, sur les représentations des coureurs.Cette étude reposera sur une analyse comparée des cyclistes belges, français et suisses. Les carrières seront analysées à partir d'entretiens semi-directifs (75) auprès de (1) jeunes athlètes (18-23 ans) qui vivent les phases de professionnalisation, (2) d'anciens cyclistes ayant vécu les normes de socialisation du milieu et (3) des acteurs clefs de l'organisation des différents dispositifs (entraîneurs, dirigeants, médecins). Notre démarche méthodologique s'adosse à celles déjà expérimentées dans des travaux antérieurs (notamment, Brissonneau, 2003).
Resumo:
Résumé Introduction : Les patients nécessitant une prise en charge prolongée en milieu de soins intensifs et présentant une évolution compliquée, développent une réponse métabolique intense caractérisée généralement par un hypermétabolisme et un catabolisme protéique. La sévérité de leur atteinte pathologique expose ces patients à la malnutrition, due principalement à un apport nutritionnel insuffisant, et entraînant une balance énergétique déficitaire. Dans un nombre important d'unités de soins intensifs la nutrition des patients n'apparaît pas comme un objectif prioritaire de la prise en charge. En menant une étude prospective d'observation afin d'analyser la relation entre la balance énergétique et le pronostic clinique des patients avec séjours prolongés en soins intensifs, nous souhaitions changer cette attitude et démonter l'effet délétère de la malnutrition chez ce type de patient. Méthodes : Sur une période de 2 ans, tous les patients, dont le séjour en soins intensifs fut de 5 jours ou plus, ont été enrôlés. Les besoins en énergie pour chaque patient ont été déterminés soit par calorimétrie indirecte, soit au moyen d'une formule prenant en compte le poids du patient (30 kcal/kg/jour). Les patients ayant bénéficié d'une calorimétrie indirecte ont par ailleurs vérifié la justesse de la formule appliquée. L'âge, le sexe le poids préopératoire, la taille, et le « Body mass index » index de masse corporelle reconnu en milieu clinique ont été relevés. L'énergie délivrée l'était soit sous forme nutritionnelle (administration de nutrition entérale, parentérale ou mixte) soit sous forme non-nutritionnelle (perfusions : soluté glucosé, apport lipidique non nutritionnel). Les données de nutrition (cible théorique, cible prescrite, énergie nutritionnelle, énergie non-nutritionnelle, énergie totale, balance énergétique nutritionnelle, balance énergétique totale), et d'évolution clinique (nombre des jours de ventilation mécanique, nombre d'infections, utilisation des antibiotiques, durée du séjour, complications neurologiques, respiratoires gastro-intestinales, cardiovasculaires, rénales et hépatiques, scores de gravité pour patients en soins intensifs, valeurs hématologiques, sériques, microbiologiques) ont été analysées pour chacun des 669 jours de soins intensifs vécus par un total de 48 patients. Résultats : 48 patients de 57±16 ans dont le séjour a varié entre 5 et 49 jours (motif d'admission : polytraumatisés 10; chirurgie cardiaque 13; insuffisance respiratoire 7; pathologie gastro-intestinale 3; sepsis 3; transplantation 4; autre 8) ont été retenus. Si nous n'avons pu démontrer une relation entre la balance énergétique et plus particulièrement, le déficit énergétique, et la mortalité, il existe une relation hautement significative entre le déficit énergétique et la morbidité, à savoir les complications et les infections, qui prolongent naturellement la durée du séjour. De plus, bien que l'étude ne comporte aucune intervention et que nous ne puissions avancer qu'il existe une relation de cause à effet, l'analyse par régression multiple montre que le facteur pronostic le plus fiable est justement la balance énergétique, au détriment des scores habituellement utilisés en soins intensifs. L'évolution est indépendante tant de l'âge et du sexe, que du status nutritionnel préopératoire. L'étude ne prévoyait pas de récolter des données économiques : nous ne pouvons pas, dès lors, affirmer que l'augmentation des coûts engendrée par un séjour prolongé en unité de soins intensifs est induite par un déficit énergétique, même si le bon sens nous laisse penser qu'un séjour plus court engendre un coût moindre. Cette étude attire aussi l'attention sur l'origine du déficit énergétique : il se creuse au cours de la première semaine en soins intensifs, et pourrait donc être prévenu par une intervention nutritionnelle précoce, alors que les recommandations actuelles préconisent un apport énergétique, sous forme de nutrition artificielle, qu'à partir de 48 heures de séjour aux soins intensifs. Conclusions : L'étude montre que pour les patients de soins intensifs les plus graves, la balance énergétique devrait être considérée comme un objectif important de la prise en charge, nécessitant l'application d'un protocole de nutrition précoce. Enfin comme l'évolution à l'admission des patients est souvent imprévisible, et que le déficit s'installe dès la première semaine, il est légitime de s'interroger sur la nécessité d'appliquer ce protocole à tous les patients de soins intensifs et ceci dès leur admission. Summary Background and aims: Critically ill patients with complicated evolution are frequently hypermetabolic, catabolic, and at risk of underfeeding. The study aimed at assessing the relationship between energy balance and outcome in critically ill patients. Methods: Prospective observational study conducted in consecutive patients staying 5 days in the surgical ICU of a University hospital. Demographic data, time to feeding, route, energy delivery, and outcome were recorded. Energy balance was calculated as energy delivery minus target. Data in means+ SD, linear regressions between energy balance and outcome variables. Results: Forty eight patients aged 57±16 years were investigated; complete data are available in 669 days. Mechanical ventilation lasted 11±8 days, ICU stay 15+9 was days, and 30-days mortality was 38%. Time to feeding was 3.1 ±2.2 days. Enteral nutrition was the most frequent route with 433 days. Mean daily energy delivery was 1090±930 kcal. Combining enteral and parenteral nutrition achieved highest energy delivery. Cumulated energy balance was between -12,600+ 10,520 kcal, and correlated with complications (P<0.001), already after 1 week. Conclusion: Negative energy balances were correlated with increasing number of complications, particularly infections. Energy debt appears as a promising tool for nutritional follow-up, which should be further tested. Delaying initiation of nutritional support exposes the patients to energy deficits that cannot be compensated later on.
Resumo:
Grâce à la prophylaxie antibiotique per-opératoire, à l'amélioration des techniques chirurgicales et au flux laminaire dans les blocs opératoires le taux d'infections postopératoires a pu être diminué dans les interventions chirurgicales orthopédiques. Il stagne néanmoins à environ 0,5- 2% dans les fractures fermées ainsi que dans les interventions orthopédiques électives, et peut monter jusqu'à 30% dans les fractures ouvertes stade III. L'ostéomyelite et la pseudarthrose infectée, qui peuvent en découler, sont responsables de séjours hospitaliers prolongés, engendrent des coûts de traitement élevés, et conduisent souvent à une morbidité substantielle. Le traitement de l'ostéomyelite combine le débridement chirurgical et l'administration d'antibiotiques. Cependant l'administration systémique d'antibiotiques à hautes doses est problématique en raison de leur toxicité systémique et de leur faible pénétration dans les tissus ischémiques et nécrotiques, souvent présents dans l'ostéomyelite. Pour ces raisons, le traitement standard actuel consiste, après débridement chirurgical, en la mise en place de billes de Polyrnéthylmétacrylate (PMMA) imprégnées d'antibiotique, qui fournissent des concentrations locales élevées mais systémiques basses. Malheureusement, ces billes doivent être enlevées une fois l'infection guérie, ce qui nécessite une nouvelle intervention chirurgicale. Des systèmes de libération antibiotique alternatifs devraient non seulement guérir l'infection osseuse, mais également encourager activement la consolidation osseuse et ne pas nécessiter de nouvelle chirurgie pour leur ablation. Nous avons investigué l'activité de billes résorbables chargées en gentamicine contre différents microorganismes (Staphylococcus epidermidis, Staphylococcus aureus, Escherichia coli, Enterococcus faecalis, Candida albicans), des germes communément responsables d'infections osseuses, par microcalorimétrie, une méthode novice basée sur la mesure de la chaleur produite par des microorganismes qui se répliquent dans une culture. Des billes composées essentiellement de sulfate de calcium et chargées en gentamicine ont été incubées dans des ampoules microcalorimétriques contenant différentes concentrations du germe correspondant. Les bouillons de culture avec chaque germe et billes non-chargées ont été utilisés comme contrôle positif, le bouillon de culture avec bille chargée mais sans germe comme contrôle négatif. La production de chaleur provenant de la croissance bactérienne à 37°C a été mesurée pendant 24 heures. Les cultures ne contenant pas de billes chargées en gentamicine ont. produit des pics de chaleur équivalents à la croissance exponentielle du microorganisme correspondant en milieu riche. Par contre, les germes susceptibles à la gentamicine incubés avec les billes chargées ont complètement supprimé leur production de chaleur pendant 24 heures, démontrant ainsi l'activité antibiotique des billes chargées en gentamicine contre ces germes. Les billes résorbables chargées en gentamicine inhibent donc de façon effective la croissance des germes susceptibles sous les conditions in vitro décrites. Des études sur animaux sont maintenant nécessaires pour déterminer la cinétique d'élution et l'effet antimicrobien de la gentamicine sous conditions in vivo. Finalement des études cliniques devront démontrer que l'utilisation de ces billes est effectivement une bonne option thérapeutique dans le traitement des infections osseuses.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.