224 resultados para Finances--Gestion du risque--Canada
Resumo:
Here we present results of studies conducted by the Research Unit of Legal Psychiatry and Psychology of Lausanne about risk assessment and protective factors in the evaluation of violence recidivism. It aims to help experts in considering the relevance and use of tools at their disposal. Particular attention is given to the significance of protective factors and impulsive dimensions, as to the inter-raters process that leads to the final deliberations.
Resumo:
Gaysurvey est une enquête menée périodiquement en Suisse parmi les hommes qui ont des relations sexuelles avec des hommes (HSH). Elle s'inscrit dans le dispositif de surveillance du VIH, établi par l'Office fédéral de la santé publique, en tant qu'instrument de suivi des comportements face au VIH/sida dans ce groupe-cible. Elle a déjà été réalisée à huit reprises : en 1987, 1990, 1992, 1994, 1997, 2000, 2004, 2007. [...] Elle permet d'établir des tendances temporelles au niveau des pratiques sexuelles et des expositions au risque d'infection par le VIH. Elle permet, en outre, d'approfondir certaines thématiques pertinentes pour le travail de prévention (gestion du risque au sein d'une relation stable, entrée dans la sexualité, etc.). Ce document a pour objectif de faire la synthèse des tendances mises au jour lors de la dernière vague d'enquête, réalisée en 2007. [Introduction p. 4]
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Gaysurvey est une enquête menée périodiquement en Suisse parmi les hommes qui ont des relations sexuelles avec des hommes (HSH). Elle s'inscrit dans le dispositif de surveillance du VIH, établi par l'Office fédéral de la santé publique, en tant qu'instrument de suivi des comportements face au VIH/Sida dans ce groupe cible. Elle a déjà été réalisée à neuf reprises : en 1987, 1990, 1992, 1994, 1997, 2000, 2004, 2007 et 2009. En 2010, l'enquête européenne EMIS a permis d'obtenir certains indicateurs qui sont présentés avec les données des enquêtes Gaysurvey lorsqu'ils sont disponibles. Les résultats de cette enquête servent directement au pilotage et à l'évaluation de la stratégie de lutte contre le VIH/Sida en Suisse, telle qu'elle a été définie par l'OFSP et ses partenaires. Elle permet d'établir des tendances temporelles au niveau des pratiques sexuelles et des expositions au risque d'infection par le VIH. Elle permet, en outre, d'approfondir certaines thématiques pertinentes pour le travail de prévention (gestion du risque au sein d'une relation stable, entrée dans la sexualité, pratiques de réduction des risques). Ce rapport a pour objectif de faire la synthèse des tendances, mises à jour lors de la dernière vague d'enquête réalisée en 2012. [Introduction p. 17]
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
Rock slope instabilities such as rock slides, rock avalanche or deep-seated gravitational slope deformations are widespread in Alpine valleys. These phenomena represent at the same time a main factor that control the mountain belts erosion and also a significant natural hazard that creates important losses to the mountain communities. However, the potential geometrical and dynamic connections linking outcrop and slope-scale instabilities are often unknown. A more detailed definition of the potential links will be essential to improve the comprehension of the destabilization processes and to dispose of a more complete hazard characterization of the rock instabilities at different spatial scales. In order to propose an integrated approach in the study of the rock slope instabilities, three main themes were analysed in this PhD thesis: (1) the inventory and the spatial distribution of rock slope deformations at regional scale and their influence on the landscape evolution, (2) the influence of brittle and ductile tectonic structures on rock slope instabilities development and (3) the characterization of hazard posed by potential rock slope instabilities through the development of conceptual instability models. To prose and integrated approach for the analyses of these topics, several techniques were adopted. In particular, high resolution digital elevation models revealed to be fundamental tools that were employed during the different stages of the rock slope instability assessment. A special attention was spent in the application of digital elevation model for detailed geometrical modelling of past and potential instabilities and for the rock slope monitoring at different spatial scales. Detailed field analyses and numerical models were performed to complete and verify the remote sensing approach. In the first part of this thesis, large slope instabilities in Rhone valley (Switzerland) were mapped in order to dispose of a first overview of tectonic and climatic factors influencing their distribution and their characteristics. Our analyses demonstrate the key influence of neotectonic activity and the glacial conditioning on the spatial distribution of the rock slope deformations. Besides, the volumes of rock instabilities identified along the main Rhone valley, were then used to propose the first estimate of the postglacial denudation and filling of the Rhone valley associated to large gravitational movements. In the second part of the thesis, detailed structural analyses of the Frank slide and the Sierre rock avalanche were performed to characterize the influence of brittle and ductile tectonic structures on the geometry and on the failure mechanism of large instabilities. Our observations indicated that the geometric characteristics and the variation of the rock mass quality associated to ductile tectonic structures, that are often ignored landslide study, represent important factors that can drastically influence the extension and the failure mechanism of rock slope instabilities. In the last part of the thesis, the failure mechanisms and the hazard associated to five potential instabilities were analysed in detail. These case studies clearly highlighted the importance to incorporate different analyses and monitoring techniques to dispose of reliable and hazard scenarios. This information associated to the development of a conceptual instability model represents the primary data for an integrated risk management of rock slope instabilities. - Les mouvements de versant tels que les chutes de blocs, les éboulements ou encore les phénomènes plus lents comme les déformations gravitaires profondes de versant représentent des manifestations courantes en régions montagneuses. Les mouvements de versant sont à la fois un des facteurs principaux contrôlant la destruction progressive des chaines orogéniques mais aussi un danger naturel concret qui peut provoquer des dommages importants. Pourtant, les phénomènes gravitaires sont rarement analysés dans leur globalité et les rapports géométriques et mécaniques qui lient les instabilités à l'échelle du versant aux instabilités locales restent encore mal définis. Une meilleure caractérisation de ces liens pourrait pourtant représenter un apport substantiel dans la compréhension des processus de déstabilisation des versants et améliorer la caractérisation des dangers gravitaires à toutes les échelles spatiales. Dans le but de proposer un approche plus globale à la problématique des mouvements gravitaires, ce travail de thèse propose trois axes de recherche principaux: (1) l'inventaire et l'analyse de la distribution spatiale des grandes instabilités rocheuses à l'échelle régionale, (2) l'analyse des structures tectoniques cassantes et ductiles en relation avec les mécanismes de rupture des grandes instabilités rocheuses et (3) la caractérisation des aléas rocheux par une approche multidisciplinaire visant à développer un modèle conceptuel de l'instabilité et une meilleure appréciation du danger . Pour analyser les différentes problématiques traitées dans cette thèse, différentes techniques ont été utilisées. En particulier, le modèle numérique de terrain s'est révélé être un outil indispensable pour la majorité des analyses effectuées, en partant de l'identification de l'instabilité jusqu'au suivi des mouvements. Les analyses de terrain et des modélisations numériques ont ensuite permis de compléter les informations issues du modèle numérique de terrain. Dans la première partie de cette thèse, les mouvements gravitaires rocheux dans la vallée du Rhône (Suisse) ont été cartographiés pour étudier leur répartition en fonction des variables géologiques et morphologiques régionales. En particulier, les analyses ont mis en évidence l'influence de l'activité néotectonique et des phases glaciaires sur la distribution des zones à forte densité d'instabilités rocheuses. Les volumes des instabilités rocheuses identifiées le long de la vallée principale ont été ensuite utilisés pour estimer le taux de dénudations postglaciaire et le remplissage de la vallée du Rhône lié aux grands mouvements gravitaires. Dans la deuxième partie, l'étude de l'agencement structural des avalanches rocheuses de Sierre (Suisse) et de Frank (Canada) a permis de mieux caractériser l'influence passive des structures tectoniques sur la géométrie des instabilités. En particulier, les structures issues d'une tectonique ductile, souvent ignorées dans l'étude des instabilités gravitaires, ont été identifiées comme des structures très importantes qui contrôlent les mécanismes de rupture des instabilités à différentes échelles. Dans la dernière partie de la thèse, cinq instabilités rocheuses différentes ont été étudiées par une approche multidisciplinaire visant à mieux caractériser l'aléa et à développer un modèle conceptuel trois dimensionnel de ces instabilités. A l'aide de ces analyses on a pu mettre en évidence la nécessité d'incorporer différentes techniques d'analyses et de surveillance pour une gestion plus objective du risque associée aux grandes instabilités rocheuses.
Resumo:
Une cohorte de 6477 nouveau-nés de mères résidant dans le Canton du Vaud a été recrutée pendant une année (1993-1994) dans les 18 maternités vaudoises et celle de Châtel-St-Denis. L'objectif de l'étude EDEN (Etude du DEveloppement des Nouveau-nés) est de calculer l'incidence et la prévalence des affections chroniques de toute étiologie et pour toutes les catégories de poids de naissance, à 18 mois et à 4 ans. Ce rapport présente la méthode de l'étude et l'état de santé à la naissance. Cinq critères de sélection non exclusifs ont permis de cibler un groupe de nouveau-nés à haut risque de développer une affection chronique (12% des nouveau-nés, n=760): (1) le petit poids de naissance (n=408, 6.5% des naissances vivantes); (2) une malformation congénitale ou une maladie génétique (n=157, 2.4% des naissances vivantes); (3) une affection susceptible de devenir chronique liée à une utilisation importante des services de soins au cours de la petite enfance (n=61, 0.9% des naissances vivantes); (4) le transfert aux soins intensifs (n=287, 4.4% des naissances vivantes); (5) des difficultés sociales importantes (n=105, 1.6% des naissances vivantes). Le taux d'acceptation de l'étude par les parents est bon (90%). En tout 5.9% des enfants étaient prématurés et 2.2 pour mille sont décédés à < ou = à 7 jours de vie. Selon les indicateurs à disposition, le réseau vaudois répond efficacement aux besoins en soins obstétricaux et néonatals La durée moyenne du séjour hospitalier était de 7 jours, avec des variations importantes. L'influence néfaste du tabagisme pendant la grossesse se manifeste par un doublement du risque de poids de naissance < ou = à 2500g chez les fumeuses; 24% des femmes ont fumé pendant leur grossesse, pour les trois quarts jusqu'à l'accouchement. Un grand potentiel de prévention subsiste dans ce domaine. L'examen des enfants à 18 mois, terminé fin mai 1996, ainsi que celui des 4 ans, permettront de valider les critères de sélection à la naissance comme indicateurs précoces de problèmes de santé chroniques dans la petite enfance. Les nouveaux cas d'affection chronique seront alors signalés par les pédiatres et les médecins spécialistes. [Auteurs, p. 9]
Resumo:
Question de recherche : Est-ce que la limite de taille de 7 mm d'un anévrisme intracrânien non rompu¦proposée par les études internationales est un critère valable de sélection entre un traitement¦conservateur (observation périodique) ou une intervention curative sur la population du CHUV ?¦Contexte : On estime actuellement la fréquence des anévrismes intracrâniens à 0.2-9% dans la¦population générale. Le taux d'hémorragie sous-arachnoïdienne due à une rupture d'anévrisme est¦estimé à 6-16 pour 100'000 personnes.¦Selon les investigateurs de l'International Study of Unruptured Intracranial Aneurysms (ISUIA, 2003),¦le taux cumulé de rupture à 5 ans pour les anévrismes de moins de 7 mm de diamètre est de 0.05% ou¦2.5% selon que l'anévrisme se situe sur une artère de la circulation cérébrale antérieure ou postérieure,¦respectivement.¦Ces chiffres sont fortement controversés. En effet, d'autres études montrent que le risque de rupture des¦anévrismes inférieurs à 7 mm de diamètre est bien plus important que ne le laisse supposer l'étude¦ISUIA.¦Objectifs : L'objectif de ce travail de maîtrise vise à déterminer si la limite de taille de 7 mm d'un¦anévrisme cérébral non rompu proposé par certaines études internationales (et notamment l'étude¦ISUIA) est un critère valable pour sélectionner entre une observation périodique ou une intervention¦curative (chirurgicale ou endovasculaire) des patients.¦Un corollaire qui découle de cette question est de savoir s'il est justifié de traiter d'emblée un¦anévrisme cérébral non rompu mesurant moins de 7 mm.¦Matériel et Méthodes : Etude rétrospective observationnelle basée sur des données provenant des¦dossiers médicaux des patients admis aux urgences du CHUV avec une hémorragie sousarachnoïdienne¦due à la rupture d'un anévrisme intracrânien pendant une période allant de juin 2005 à¦avril 2011.¦Différents paramètres sont pris en considération : l'âge et le sexe du patient, la taille, la localisation et le¦nombre d'anévrismes, les facteurs de risque de rupture comme le tabac, l'hypertension artérielle et la¦consommation d'alcool, ainsi que les antécédents et l'histoire familiale de rupture d'anévrisme.¦Le critère de jugement principal est la taille de l'anévrisme, suivi par sa localisation.¦Les critères d'exclusion des patients sont les suivants : anévrismes mycotique, fusiforme ou¦traumatique, tumeur cérébrale maligne.¦Résultats escomptés : Avec ce travail, une nouvelle limite de diamètre anévrismal pourrait être¦proposée, en tenant compte des différents paramètres analysés sur un échantillon de la population¦locale. Les résultats pourraient apporter plus de précisions dans le bilan du risque d'une rupture¦anévrismale. Ainsi, la décision d'une intervention bénéficierait d'une base de réflexion nouvelle pour¦les anévrismes non rompus de petite taille.¦Plus-value escomptée : Cette étude pourrait contribuer à améliorer le pronostic des patients porteurs¦d'anévrisme(s) intracrânien(s). Elle permettrait en effet d'intervenir en cas d'anévrismes intracrâniens¦non rompus de taille inférieure à 7 mm, avant que ceux-ci ne se rompent et provoquent une hémorragie¦sous-arachnoïdienne.
Resumo:
Contexte : Les patients souffrant d'un épisode dépressif sévère sont fréquemment traités par des inhibiteurs sélectifs de la recapture de la sérotonine (SSRI). Cependant, seulement 30-50% des patients répondront à ce type de traitement. Actuellement, il n'existe pas de marqueur biologique utilisable pour prédire la réponse à un traitement par SSRI. Un délai dans la mise en place d'une thérapie efficace peut avoir comme conséquences néfastes une augmentation du risque de suicide et une association avec un moins bon pronostic à long terme lors d'épisodes ultérieurs. Objectif : Par l'étude du métabolisme cérébral par tomographie par émission de positons (PET) au F-18-fluorodeoxyglucose (FDG), nous étudierons la présence de corrélations éventuelles entre la réponse clinique, qui généralement survient dans les 4 à 6 semaines après l'instauration du traitement antidépresseur, et une modification du métabolisme cérébral mesuré plus précocement, dans le but d'identifier les futurs répondeurs au traitement par SSRI. Méthodes : Cette étude longitudinale comprendra 20 patients unipolaires avec un épisode dépressif sévère au bénéfice d'un traitement par SSRI. Chacun des patients aura deux examens PET cérébraux au F-18-FDG. Le premier PET aura lieu juste avant le début du traitement aux SSRI et le second dans la 3ème semaine après début du traitement. La réponse clinique sera mesurée à 3 mois, et les répondeurs seront identifiés par une diminution significative des scores lors d'évaluation sur échelles de dépression. La recherche d'altérations métaboliques cérébrales sera faite en évaluant: (1) l'examen de base ou (2) l'examen PET précoce, à la recherche d'altérations spécifiques corrélées à une bonne réponse clinique, afin d'obtenir une valeur pronostique quant à la réponse au traitement. L'analyse de l'imagerie cérébrale utilisera la technique SPM (Statistical Parameter Mapping) impliquant un traitement numérique voxel par voxel des images PET. Résultats escomptés : Cette étude caractérisant les variations du métabolisme cérébral dans la phase précoce d'un traitement par SSRI vise à identifier des marqueurs métaboliques potentiels fournissant une valeur prédictive quant à la future efficacité du traitement SSRI introduit. Plus-value escomptée : L'identification d'un tel marqueur métabolique permettrait d'identifier rapidement les futurs répondeurs aux SSRI, et par conséquent d'éviter de proposer aux non-répondeurs la poursuite d'une médication, pendant plusieurs semaines, qui aurait peu de chance d'être efficace. Ainsi, une identification précoce des répondeurs aux SSRI pourrait permettre d'éviter des délais dans la mise en place d'une thérapie efficace et d'obtenir une amélioration du pronostic à plus long terme, avec une influence favorable sur les coûts de la santé.
Resumo:
L'éducation thérapeutique du patient est maintenant parfaitement intégrée dans les soins. Son champ d'application se situe essentiellement dans le domaine des maladies chroniques pour l'acquisition de compétences dans la gestion du traitement, en coopération avec les professionnels. En médecine ambulatoire, patients et soignants se heurtent actuellement aux difficultés du suivi avec sa part d'incertitude, lassitude et de pression économique. La médecine fondée sur les preuves (EBM) et les différents modèles en psychologie de la santé ne nous éclairent que partiellement le chemin. Un nouveau type de démarche réflexive est en train d'émerger. Cette réflexion devrait placer en son centre la notion de relation thérapeutique : entre science et existence. Nous résumons ici ce processus réflexif en cours d'une équipe interdisciplinaire regroupant sciences humaines, art et médecine. Therapeutic education is now perfectly integrated in caring and medicine. Its field of application is primarily in chronic diseases for the acquisition of competences in the management of treatments, in co-operation with health professionals. In ambulatory medicine, patients and health professionals are currently running up against the difficulties of the long-term follow-up with its part of uncertainty, lassitude and economic pressure. EBM and the various models of health psychology light us only partially the way. A new type of reflexive step is emerging. This way of thinking should place in its center the concept of therapeutic relation: between science and being. We summarize here our reflexive process in the course of an interdisciplinary team gathering social sciences, art and medicine
Resumo:
Le débat qui s'est instauré autour de l'évaluation de la dangerosité par des outils statistiques actuariels s'inscrit dans une évolution préoccupante des pratiques pénales et des attentes sociales. L'instauration de privations de liberté à durée indéterminée et l'utilisation de l'évaluation psychiatrique pour déterminer cette privation peuvent conduire à utiliser ces outils d'évaluation comme facteurs de stigmatisation et d'exclusion. Outils cliniques lorsqu'ils ont été créés, ils sont souvent utilisés comme supports de nouveaux modes de gestion des populations pénales. Ils peuvent aussi contribuer à un renforcement de la stigmatisation sociale à l'égard de la maladie psychique en assimilant celle-ci à un risque de violence. L'évaluation du risque de violence doit donc rester une pratique avant tout clinique où l'usage d'instruments d'aide à la réflexion garde sa pertinence, mais doit faire l'objet d'une interrogation éthique et de définition de règles de bonne pratique.