999 resultados para gestion des âges, égalité
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
AbstractAs demonstrated during several recent geological conferences, there is still a large debate concerning the origins of the Mesozoic oceanic remnants on the Caribbean Plate. The geodynamic models describing the Mesozoic history of the Caribbean realm can be divided into two main categories based on the origin of the Caribbean Plate: 1) An in situ origin between the Americas; 2) A Pacific origin and an eastward transport relative to the Americas. The study of the ribbon-bedded radiolarite is a key in determining the origins of associated Mesozoic oceanic terranes and may help to achieve a general agreement regarding the basic principles on the evolution of the Caribbean Plate. The Early Jurassic to early Late Cretaceous Bermeja Complex of Puerto Rico, witch contains serpentinized peridotite, altered basalt, amphibolite, and chert (Mariquita Chert Formation), and the contemporaneous Santa Rosa Accretionary Complex, which crops out in several half-windows along the south shores of the Santa Elena Peninsula in northwestern Costa Rica, are two of these little-known and crucial ophiolitic mélanges. The Manzanillo and Matambú fore-arc Terranes of the Nicoya Peninsula in the northwestern Costa Rica, which contain Late Cretaceous to Early Paleogene radiolarian-bearing siliceous mudstones and cherts associated with arc-derived mafic to intermediate volcaniclastics, bring important information on the history of the western active margin of the Caribbean Plate. A systematic radiolarian study of these three regions is presented herein in three different articles.The radiolarian biochronology of the Mariquita Chert Formation of the Bermeja Complex presented in this work indicate an early Middle Jurassic to early Late Cretaceous (late Bajocian-early Callovian to middle Albian-middle Cenomanian) age for the Mariquita Chert Formation. The illustrated assemblages contain 150 species, of which 3 are new (Pantanellium karinae, Loopus bermejaense, and L. boricus), and belonging to 59 genera. A review of the previous radiolarian published works on this formation and the results of this study suggest that the Bermeja Complex ranges in age from Middle Jurassic to early Late Cretaceous (late Aalenian to middle Cenomanian) and also reveal a possible feature of the complex, which is the youngling of radiolarian cherts from north to south, evoking a polarity of accretion. On the basis of a currently exhaustive inventory of the ribbonbedded radiolaritic facies on the Caribbean Plate, a re-examination of the distribution of Middle Jurassic sediments associated with oceanic crust from the Caribbean realm, and a paleoceanographical argumentation on the water currents, we come to the conclusion that the radiolarite and associated Mesozoic oceanic terranes of the Caribbean Plate are of Pacific origin. The previous argument for a Pacific origin of the Bermeja Complex presented by Montgomery et al. (1994a), based on their radiolarian age and their estimation of the oldest Proto-Caribbean oceanic crust, is nowadays seriously questionable, owing to the recent progresses in radiolarian biostratigraphy and new discoveries on the age of the first oceanic crust spreading between the Americas. Furthermore, we interpret the radiolarian Parvicingulidae-rich assemblages in the low-latitude Caribbean context as potential indicators of upwelling or land nutrients inputs, instead of indicators of paleolatitudes,as firstly stated by Pessagno and Blome (1986). Eventually, a discussion on the origin of the cherts of the Mariquita Formation illustrated by Middle Jurassic to middle Cretaceous geodynamic models of the Pacific and Caribbean realms bring up the possibility that the rocks of the Bermeja Complex are remnants of two different oceans.The Santa Rosa Accretionary Complex contains various oceanic assemblages of alkaline basalt, radiolarite and polymictic breccias. The radiolarian biochronology (19 illustrated assemblages, 232 species belonging to 63 genera) presented in this work indicate an Early Jurassic to early Late Cretaceous (early Pliensbachian to earliest Turonian) age for the sediments associated with oceanic basalts or recovered from blocks in breccias or megabreccias from the Santa Rosa Accretionary Complex. This study brings to light the Early Jurassic age of a sequence of ribbon-bedded radiolarite, which was previously thought to be of Cretaceous age, intruded by alkaline basalts sills. The presence of Early Jurassic large reworked blocks of radiolarite in a polymictic megabreccia, firstly reported by De Wever et al. (1985) is confirmed. Therefore, the alkaline basalt associated with these radiolarites could be of Jurassic age. In the Carrizal tectonic window, Middle Jurassic radiolarian chert blocks and Early Cretaceous brick-red ribbon-bedded radiolarites overlying pillow basalts are interpreted as fragments of a Middle Jurassic oceanic basement accreted to an Early Cretaceous oceanic plate, in an intra-oceanic subduction context. Whereas, knobby radiolarites and black shale at Playa Carrizal are indicative of a shallower middle Cretaceous paleoenvironment. Other younger oceanic remnants documented the rapid approach of the site of sedimentation to a subduction trench during the late Early Cretaceous (AlbianCenomanian), maybe early Late Cretaceous (Turonian).In total, 60 species belonging to 34 genera were present in relatively well-preserved radiolarian faunas from volcaniclastics and associated pelagic and hemipelagic rocks of the Matambú and Manzanillo terranes, ranging in age from Late Cretaceous to Early Paleogene (middle Turonian-Santonian to late Thanetian-Ypresian). This study shows that radiolarians can provide significant biostratigraphic control in the Nicoya Peninsula where very similar lithologies of different ages are present. Two radiolarian samples directly date the Berrugate Formation for the first time (middle Turonian-Santonian and Coniacian-Santonian). These ages allow to determine a volcanic arc activity on the western edge of the future Caribbean Plate at least since the Santonian that could have lasted through the middle Turonian-early Campanian interval by stratigraphic superposition. Moreover on the basis of these radiolarian ages, the Loma Chumico Formation of Albian age, and the Berrugate Formation of middle Turonian-early Maastrichtian age, can now be clearly differentiated. Two samples from the Sabana Grande Formation give a Coniacian-Santonian age and a Coniacian-Campanian age and indicate that there is a stratigraphic gap of ~10 million years between this formation and the underlying Albian Loma Chumico Formation.RésuméComme cela a pu se vérifier à plusieurs reprises lors de conférences géologiques récentes, le débat sur l'origine des terrains océaniques mésozoïques de la Plaque Caraïbes est toujours d'actualité. Les modèles géodynamiques décrivant l'histoire de la région caraïbes peuvent être classés en deux catégories basées sur l'origine de la Plaque Caraïbes : 1) Une origine in situ entre les Amériques ; 2) Une origine Pacifique et un transport vers l'est, par rapport aux Amériques. L'étude des radiolarites rubanées est capitale pour la détermination de l'origine des terrains océaniques allochtones du Mésozoïque et peut être utile pour parvenir à un compromis général concernant les principes basiques de l'évolution de la Plaque Caraïbes. Le complexe de Bermeja à Porto Rico qui est constitué de péridotites serpentinisées, de basaltes altérés, d'amphibolites et de cherts (Formation des Cherts de Mariquita), et le Complexe d'Accrétion de Santa Rosa qui affleure dans plusieurs demi-fenêtres tectoniques au sud de la Péninsule de Santa Elena au nord-ouest du Costa Rica sont deux de ces mélanges ophiolitiques peu décrits et déterminants. Les terrains de fore-arc de Manzanillo et de Matambu dans la Péninsule de Nicoya au nord-ouest du Costa Rica qui sont composés de calcaires siliceux et de cherts riches en radiolaires associés à du matériel volcanique d'arc mafique à intermédiaire, apportent d'importantes informations sur l'histoire de la marge active occidentale de la Plaque Caraïbe. Une étude systématique des radiolaires de ces trois régions est présentée dans ce travail sous forme de trois articles.La biochronologie des radiolaires de la Formation des Cherts de Mariquita du Complexe d'Accrétion de Santa Rosa présentée dans ce travail indique un âge Jurassique Moyen inférieur à Crétacé Supérieur inférieur (Bajocien supérieur-Callovien inférieur à Albien moyen-Cénomanien moyen) pour la Formation des Cherts de Mariquita. Les assemblages illustrés contiennent 150 espèces, parmis lesquelles 3 sont nouvelles (Pantanellium karinae, Loopus bermejaense et L. boricus), et appartenant à 59 genres différents. Une révision des travaux publiés précédemment sur les radiolaires de cette formation, ainsi que les résultats de cette étude suggèrent que le Complexe de Bermeja a un âge allant du Jurassique moyen au Crétacé Supérieur inférieur (Aalénien supérieur à Cénomanien moyen) et révèle aussi une caractéristique éventuelle du complexe qui est le rajeunissement des radiolarites du nord au sud, évoquant une polarité d'accrétion. Sur la base d'un inventaire actuellement exhaustif du facies radiolaritique rubané sur la Plaque Caraïbes, d'un nouvel examen de la distribution globale des sédiments du Jurassique Moyen associés à de la croûte océanique et d'une argumentation paléocéanographique sur les courants, nous arrivons à la conclusion que les radiolarites et les unités tectoniques océaniques du Mésozoïque associées de la Plaque Caraïbes sont d'origine pacifique. L'argument antérieur pour une origine pacifique du Complexe de Bermeja présenté par Montgomery et al. (1994a), basé sur leur âge à radiolaire et leur estimation de l'âge de la plus vieille croûte océanique des Proto-Caraïbes, est sérieusement remis en question aujourd'hui, en raison des progrès récents de la biostratigraphie des radiolaires et des nouvelles découvertes concernant l'âge du début de l'océanisation entre les Amériques. En outre, dans le contexte de basses latitudes des Caraïbes, nous interprétons les assemblages à radiolaires riches en Parvicingulidae comme étant des indicateurs potentiels d'apports en nutriments des zones d'uppwelling ou des terres, plutôt que des indicateurs de paléolatitudes, comme exposer pour la première fois par Pessagno et Blome (1986). Finalement, une discussion sur l'origine des cherts de la Formation de Mariquita illustrée par des modèles géodynamiques du Jurassique Moyen au Crétacé moyen des régions pacifique et caraïbes, fait poindre la possibilité que les roches du Complexe de Bermeja proviennent de deux océans différents.Le Complexe d'Accrétion de Santa Rosa contient plusieurs assemblages océaniques différents de basaltes alcalins, radiolarites et brèches polymictes. La biochronologie des radiolaires (19 assemblages illustrés, 232 espèces appartenant à 63 genres) présentée dans ce second travail indique un âge Jurassique Inférieur à Crétacé Supérieur inférieur (Pliensbachien inférieur à Turonien initial) pour les sédiments associés aux basaltes océaniques ou provenant de blocs dans des brèches ou des mégabrèches du Complexe d'Accrétion de Santa Rosa. Cette étude met en évidence l'âge Jurassique Inférieur d'une séquence de radiolarites rubanées entrecoupée de sills de basaltes alcalins, dont l'âge estimé était précédemment le Crétacé.La présence de blocs plurimétriques de radiolarites d'âge Jurassique Inférieur remaniés dans une mégabrèche polymicte, dont la présence avait été signalée par De Wever et al. (1985), est confirmée. Par conséquent, les basaltes alcalins associés à ces radiolarites pourraient aussi être d'âge Jurassique. Dans la fenêtre tectonique de Carrizal, des blocs de radiolarites d'âge Jurassique Moyen et des radiolarites du Crétacé Inférieur recouvrant des basaltes en coussins sont interprétés comme des fragments d'une croûte océanique d'âge Jurassique Moyen accrétés à une plaque océanique d'âge Crétacé Inférieur, dans un contexte de subduction intra-océanique. Alors que dans la même zone, les radiolarites « noueuses » et les argiles noires associées sont interprétées comme des indicateurs d'un milieu peu profond au Crétacé. D'autres fragments océaniques plus jeunes documentent une approche rapide du lieu de sédimentation vers une fosse de subduction pendant le Crétacé Inférieur supérieur (Albien-Cénomanien), peut-être Crétacé Supérieur (Turonien).Au total, 60 espèces appartenant à 34 genres ont été déterminées à partir de faunes à radiolaires relativement bien préservées, extraites de roches volcanoclastiques et pélagiques à hémipélagiques associées, provenant des terrains de Matambu et Manzanillo et ayant des âges compris entre le Crétacé Supérieur et le Paléogène Inférieur (Turonien moyen-Santonien à Thanétien supérieur-Yprésien). Cette étude montre que les radiolaires peuvent fournir un contrôle stratigraphique significatif dans la Péninsule de Nicoya, où des lithologies similaires, mais d'âges différents sont présentes. Deux échantillons à radiolaires permettent de dater la Formation de Berrugate pour la première fois (Turonien moyen-Santonien et Coniacien-Santonien). Ces âges permettent d'établir une activité volcanique d'arc le long de la marge occidentale de la futur Plaque Caraïbes au moins depuis le Santonien et qui pourrait avoir durée jusqu'au Turonien moyen-Campanien inférieur. De plus, sur la base de ces âges à radiolaires, la Formation de Loma Chumico d'âge Albien, et la Formation de Berrugate d'âge Turonien moyen-Maastrichtien inférieur, peuvent maintenant être différenciées. Deux échantillons de la Formation de Sabana Grande donnent des âges Coniacien-Santonien et Coniacien-Campanien et indiquent qu'il existe une lacune stratigraphique d'environ 10 millions d'années entre cette formation et la Formation de Loma Chumico sous-jacente d'âge Albien.
Resumo:
Résumé de la thèseLa fracturation des roches au cours de phases compressives ou extensives est un souvent évoquée pour expliquer la circulation de fluide au sein des roches cristallines. Dans le cadre de cette thèse, la circulation des fluides lors de l'exhumation tardive des Alpes a été étudiée en utilisant deux approches différentes: analyses structurales de la déformation fragile d'une part et analyses géochimiques des roches et des minéraux (isotopes stables, datations U/Pb, thermochronologie (U-Th)/He) d'autre part. Cette approche combinée a permis de mieux comprendre l'interaction existante entre les fluides métamorphiques et les fluides météoriques, ainsi que leur interaction avec les roches encaissantes. Le travail a été effectué dans la zone Pennique du Valais suisse.La première partie était focalisée sur la déformation fragile, le but étant de définir les différents types de déformations existantes et de déterminer l'âge relatif des différentes familles de failles. Dans la région d'étude, quatre domaines ont été distingués. Chacun d'eux comportent deux types de structures fragiles, certaines sont minéralisées alors que d'autre non. Au sein de chaque domaine, la direction principale des structures minéralisées correspond à l'orientation des accidents tectoniques majeurs de la région (Aosta- Ranzola Line au Sud, Rhône Line au Nord et Simplon Fault Zone à l'Est), alors que les structures non- minéralisées montrent des orientations plus variables. Ainsi, le premier type de structure est interprété comme résultant d'une dislocation tectonique alors que le deuxième type de structure résulterait d'une dislocation gravitaire locale. Il n'est néanmoins pas possible de classer chronologiquement la formation de ces deux types de structure ni d'attribuer un âge relatif aux changements d'orientation des contraintes majeures.La deuxième étude a été effectuée dans la région de la zone de faille du Simplon. Dans cette zone, la composition isotopique des minéraux ayant cristallisé à l'intérieur des fractures tardives permet de distinguer différents types de circulation de fluide. Les valeurs δ180 du quartz de la roche encaissante ainsi que ceux des veines tardives du bloque inférieur de la faille sont comparables. Ces valeurs indiquent un rééquilibrage et un tamponnage isotopique des fluides tardifs au contact de la roche encaissante lors de la fracturation de cette dernière et de la cristallisation des veines tardives. La même situation est observée dans la partie nord du bloque supérieur ainsi que dans sa partie sud. Ceci n'est néanmoins pas le cas pour la partie centrale du bloque supérieur où les valeurs isotopiques des minéraux dans les veines tardives sont approximativement 3 %o plus basses (avec des valeurs extrêmes négatifs), indiquant une contribution d'eau météorique aux fluides circulant dans les veines. Ces données suggèrent qu'une infiltration d'eau météorique a pu avoir lieu dans le bloque supérieur, où la fracturation des roches est plus intensive car le déplacement relatif le long de la faille y fut plus important, et la température maximale du métamorphisme plus basse. La troisième contribution traite de la géo-thermochronologie de la zone de contact entre la klippe de la Dent Blanche et la nappe de Tsaté. De petits zircons euhédraux ont été trouvés dans un plan de faille minéralisé (parallèle à la Faille du Rhône, voir première partie de l'étude), riche en hématite et quartz, de la zone d'étude. Les analyses U/Pb donnent des âges radiométriques autour de 270 - 280 Ma aux zircons extraits de la minéralisation ainsi que ceux extraits de la roche encaissante, ce qui correspond à l'âge de la nappe de la Dent Blanche et non celui de la nappe du Tsaté qui est elle-même classiquement interprétée comme une ophiolite Jurassique de l'Océan Liguro-Piémontais. Ces données suggèrent que les zircons contenus dans la veine ont été hérités de la roche encaissante. Les résultats (U-Th)/He indiquent un âge de refroidissement différent pour la roche encaissante (25.5 ± 2.0 Ma) que celui de la minéralisation (17.7 ±1.4 Ma). Le thermomètre isotopique quartz-hématite indique une température d'équilibre, et donc de mise en place de la minéralisation, d'environ 170 °C, température très proche de la température de -180 °C de fermeture du zircon pour le système (U-Th)/He. Ceci suggère que l'âge de refroidissement des zircons de la minéralisation correspond aussi à l'âge de formation de la faille.Thesis abstractFluid circulation in fractured rocks is a common process in geology, and it is generally the consequence of faulting and fracturing during both tectonic compression and extension. This thesis is focused on fluid circulation during late stages of the Alpine exhumation. After a structural analysis of the late brittle deformation of the studied samples, several analytical methods (stable isotope investigations, U/Pb radiometric dating, (U-Th)/He thermochronology) have been applied to understand the interaction of metamorphic and meteoric fluids with one another as well as with the host rock. This thesis is articulated around three study directions. All studies were conducted in the Penninic Zone of the Valais, Switzerland. The first study deals with late, brittle deformation and focuses on the different deformation styles and on the relative age of the different families of fractures. In order to do this, late brittle structures observed in four different domains have been subdivided as a function of the existence (or not) and type of mineralization. Comparisons between mineralized and non-mineralized strike directions for all four domains show that mineralized structures follow the strike orientation of major tectonic movements indicated in the Penninic Zone of the Valais (Aosta-Ranzola Line to the S, Rhône Line to the Ν and Simplon Fault Zone to the E), whereas non-mineralized fractures have a more variable strike orientation. This difference could be interpreted as indicative of tectonic-related faulting (mineralized structures) vs. local, collapse-related faulting (non-mineralized fractures), but it is not strong enough to indicate a relative age of the late brittle structures, and/or a change in the orientation of the strain field in post-Miocene times. The second studied area is focused on the Simplon Fault Zone (SFZ). Stable isotope analyses of minerals filling these late fractures indicate that there are two different fluid circulation systems in the footwall and hanging wall of the SFZ. In the footwall, δ180 values of quartz from both the host rock and the late veins range from +10 %o to +12 %o. This is consistent with buffering of circulating fluids by the host rock during fracturing and vein precipitation. In the hanging wall, δΙ80 values for quartz crystals from the host rock and the late veins are similar in both the northern and southern parts of the detachment that are both affected by the same degree of metamorphism (greenschist to the Ν and amphibolite to the S). This is not the case in the central part of the SFZ, where there is a jump from amphibolite facies in the footwall to greenschist facies in the hanging wall. δ,80 values for quartz from the hanging wall late veins are approximately 3.0 %o lower (down to negative values in some cases) than the values observed in the footwall These data suggest that infiltration of meteoric water may have occurred in the most fractured parts of the hanging wall, where relative displacement on the SFZ was the greatest and the peak temperature lower. In the less fractured footwall the δ180 values reflect a host rock-buffered system.The third study is focused on geo-thermochronology at the contact between the Dent Blanche nappe and the Tsaté nappe where small, euhedral zircons were found in a hematite- and quartz-rich mineralization on a late normal fault plane parallel to the Rhône Line (see first part of the study). U/Pb analysis indicates that the zircons - both in the late mineralization and in the host rock - have absolute radiometric ages clustering around 270 - 280 Ma, which is the accepted age for intrusive rocks from the Austroalpine Dent Blanche units but not for the Tsaté nappe. The latter is classically interpreted as an ophiolitic remnant of the Jurassic Liguro-Piemontais Ocean. U/Pb analyses suggest that zircons in late mineralization are all inherited from the host rock; however, results of (U-Th)/He analyses indicate that cooling ages for the host rocks are different to the cooling ages for the zircons in late mineralization. Indeed, the calculated cooling age for the Arolla gneiss is 25.5 ± 2.0 Ma, whilst the cooling age for the associated mineralized fault plane is 17.7 ±1.4 Ma. Oxygen stable isotope fractionation between quartz and hematite in the same late mineralization corresponds to temperatures of about 170 °C. The proximity of the calculated emplacement temperature for the mineralization and the lower accepted closure temperature for zircon in the (U-Th)/He system (-180 °C) imply that the age of 17.7 ± 1.4 Ma can also be interpreted as the formation age of this late brittle fault.Résumé grand publicLa circulation des fluides dans les roches fracturées est typique de nombreux processus géologiques, et très souvent est la conséquence de la fracturation des roches. Cette thèse aborde la question de la circulation des fluides pendant les dernières phases du soulèvement des Alpes. Après une analyse structurale de la fracturation directement sur le terrain, plusieurs méthodes géochimiques ont été appliquées pour comprendre l'interaction entre les différents fluides circulants, et avec leur propre roche mère. L'étude, concentrée sur trois directions principales, a été conduite dans la zone Pennique du Valais suisse. La première partie traite de la déformation cassante dans le secteur cité. L'analyse détaillée des fractures a permis de les subdiviser en structures minéralisées et non-minéralisées, sur quatre domaines différents. La comparaison entre les directions des structures minéralisées et non-minéralisées a permis de montrer que les premières suivent l'orientation des accidents tectoniques majeurs de la région, alors que les structures non- minéralisées ont une orientation plus variable. Cette différence pourrait être interprétée comme indication d'une dislocation tectonique (structures minéralisées) contre une dislocation gravitaire locale (structures non-minéralisées), mais elle n'est pas assez forte pour indiquer un âge relatif des structures tardives et/ou un changement de l'orientation des contraintes après -20 Ma vers le présent.A partir de ces observations, la deuxième étude est concentrée dans la région de la faille du Simplon. Les analyses géochimiques sur les minéraux remplissant les structures tardives indiquent qu'il y a deux différents systèmes de circulation des fluides dans les deux parties (toit et mur) de la faille. Dans le mur, les valeurs isotopiques des minéraux cristallisés à partir d'un fluide tardif sont les mêmes de ceux de la roche mère, donc il y a eu rééquilibration chimique entre fluide et roche pendant la fracturation de cette dernière et la précipitation des minéraux. Dans le toit, les valeurs isotopiques dans la roche mère et dans les minéraux des veines tardives sont comparables dans les parties Ν et S de la faille, où les roches du toit et du mur ont atteint une température maximale - pendant phase prograde de la formation des Alpes - comparable. Au contraire, dans la partie centrale, où le mur a atteint des températures maximales plus élevées par rapport au toit, les valeurs géochimiques des minéralisations tardives du toit sont parfois plus basses que les valeurs observées dans le mur. Ces données suggèrent que l'infiltration de l'eau de surface aurait pu se produire dans la partie plus fracturée du toit, où le déplacement relatif le long de la faille était majeur et les températures maximales mineures. Au contraire, les données géochimiques du mur de la partie centrale indiquent un système isotopique équilibré par la roche mère.La troisième partie de ce travail se base sur l'étude géochimique intégrée des isotopes stables d'Oxygène et radioactifs du Plomb, Uranium, Thorium et Hélium, auprès d'une faille normale minéralisée et des roches de la région à cheval entre deux nappes, la nappe de la Dent Blanche et la nappe de Tsaté. Ici, des petits zircons ont été trouvés dans la minéralisation citée, riche en hématite et quartz. L'analyse radiométrique Uranium/Plomb a montré que les zircons dans la minéralisation et dans les roches autour ont des âges comparables (autour 280 Ma). Cela signifie que les zircons dans la minéralisation tardive ont été hérités de la roche mère pendant la fracturation et la circulation des fluides tardives. De l'autre coté, les résultats des analyses Uranium-Thorium/Hélium indiquent que les âges de refroidissement pour les roches mères sont différents comparés aux âges de refroidissement pour les zircons dans la minéralisation tardive: ces derniers sont plus jeunes d'environ 8 Ma (autour 25 Ma et autour 17 Ma respectivement). Les analyses des isotopes de l'oxygène sur quartz et hématite dans la même minéralisation donnent une température de mise en place de cette dernière d'environ 170° C. La température de fermeture du système chimique des zircons dans le système (Uranium-Thorium)/Hélium est d'environ 180 °C: la proximité de ces deux températures implique que l'âge de refroidissement de la minéralisation tardive peut également être interprété comme âge de formation de la faille.
Resumo:
Le vieillissement de la population et ses conséquences psychologiques occupent une place grandissante dans les systèmes de santé. Les efforts de maintien à domicile des personnes âgées, même à des âges très avancés, s'accompagnent d'une présence plus importante des problèmes physiques et psychiatriques nécessitant des soins et un accompagnement continu par une pluralité de professionnels. A Lausanne, l'Equipe mobile (EM) de psychiatrie de l'âge avancé a été créée en 2004. Son maintien et son développement ont permis d'offrir un outil de prise en charge psychiatrique hautement spécialisé, avec une logique de proximité, à la communauté des personnes âgées et de ses soignants. L'extension du programme EM de psychiatrie de l'âge avancé dans les régions Nord et Ouest du canton de Vaud à Yverdon et Prangins respectivement, est née d'une volonté commune d'harmonisation au niveau cantonal des pratiques psychiatriques en psychiatrie de l'âge avancé. Cet article retrace la mise en place de ces deux équipes mobiles en psychiatrie de l'âge avancé, ses objectifs et sa spécificité conceptuelle. A l'aide d'un système de collecte des données, déjà utilisé par l'EM lausannoise, cet article donne les premiers résultats chiffrés en termes de problématiques rencontrées par les usagers, les types d'intervention, les diagnostics plus fréquemment relevés et les indices de satisfaction des partenaires. Cette expérience pionnière à Yverdon et Prangins pour le développement des soins psychiatriques de proximité aux personnes âgées se veut une première étape pratique dans le recensement des besoins des personnes âgées de ces régions. Elle veut aussi favoriser la mise en place d'autres projets comme les centres de la mémoire ou encore les programmes de soutien aux aidants naturels.
Resumo:
A criminal investigation requires to search and to interpret vestiges of a criminal act that happened in a past time. The forensic investigator arises in this context as a critical reader of the investigation scene, in search of physical traces that should enable her to tell a story of the offence/crime which allegedly occurred. The challenge of any investigator is to detect and recognise relevant physical traces in order to provide forensic clues for investigation and intelligence purposes. Inspired by this obser- vation, the current research focuses on the following questions : What is a relevant physical trace? And, how does the forensic investigator know she is facing one ? The interest of such questions is to provide a definition of a dimension often used in forensic science but never studied in its implications and operations. This doctoral research investigates scientific paths that are not often explored in forensic science, by using semiotic and sociological tools combined with statistical data analysis. The results are shown following a semiotic path, strongly influenced by Peir- ce's studies, and a second track, called empirical, where investigations data were analysed and forensic investigators interviewed about their work practices in the field. By the semiotic track, a macroscopic view is given of a signification process running from the discove- red physical trace at the scene to what is evaluated as being relevant for the investigator. The physical trace is perceived in the form of several signs, whose meaning is culturally codified. The reasoning should consist of three main steps : 1- What kind of source does the discovered physical trace refer to ? 2- What cause/activity is at the origin of this source in the specific context of the case ? 3- What story can be told from these observations ? The stage 3 requires to reason in creating hypotheses that should explain the presence of the discovered trace coming from an activity ; the specific activity that is related to the investigated case. To validate this assumption, it would depend on their ability to respond to a rule of relevancy. The last step is the symbolisation of the relevancy. The rule would consist of two points : the recognition of the factual/circumstantial relevancy (Is the link between the trace and the case recognised with the formulated hypothesis ? ) and appropriate relevancy (What investment is required to collect and analyse the discovered trace considering the expected outcome at the investigation/intelligence level?). This process of meaning is based on observations and a conjectural reasoning subject to many influences. In this study, relevancy in forensic science is presented as a conventional dimension that is symbolised and conditioned by the context, the forensic investigator's practice and her workplace environment (culture of the place). In short, the current research states relevancy results of the interactions between parameters from situational, structural (or organisational) and individual orders. The detection, collection and analysis of relevant physical traces at scenes depends on the knowledge and culture mastered by the forensic investigator. In the study of the relation relevant trace-forensic investigator, this research introduces the KEE model as a conceptual map that illustrates three major areas of forensic knowledge and culture acquisition, involved in the research and evaluation of the relevant physical trace. Through the analysis of the investigation data and interviews, the relationship between those three parameters and the relevancy was highlighted. K, for knowing, embodies a rela- tionship to the immediate knowledge allowing to give an overview of the reality at a specific moment ; an important point since relevancy is signified in a context. E, for education, is considered through its relationship with relevancy via a culture that tends to become institutionalised ; it represents the theoretical knowledge. As for the parameter E, for experience, it exists in its relation to relevancy in the adjustments of the strategies of intervention (i.e a practical knowledge) of each practitioner having modulated her work in the light of success and setbacks case after case. The two E parameters constitute the library resources for the semiotic recognition process and the K parameter ensures the contextualisation required to set up the reasoning and to formulate explanatory hypotheses for the discovered physical traces, questioned in their relevancy. This research demonstrates that the relevancy is not absolute. It is temporal and contextual; it is a conventional and relative dimension that must be discussed. This is where the whole issue of the meaning of what is relevant to each stakeholder of the investigation process rests. By proposing a step by step approach to the meaning process from the physical trace to the forensic clue, this study aims to provide a more advanced understanding of the reasoning and its operation, in order to streng- then forensic investigators' training. This doctoral research presents a set of tools critical to both pedagogical and practical aspects for crime scene management while identifying key-influences with individual, structural and situational dimensions. - Une enquête criminelle consiste à rechercher et à faire parler les vestiges d'un acte incriminé passé. L'investigateur forensique se pose dans ce cadre comme un lecteur critique des lieux à la recherche de traces devant lui permettre de former son récit, soit l'histoire du délit/crime censé s'être produit. Le challenge de tout investigateur est de pouvoir détecter et reconnaître les traces dites pertinentes pour fournir des indices forensiques à buts d'enquête et de renseignement. Inspirée par un tel constat, la présente recherche pose au coeur de ses réflexions les questions suivantes : Qu'est-ce qu'une trace pertinente ? Et, comment fait le forensicien pour déterminer qu'il y fait face ? L'intérêt de tels questionnements se comprend dans la volonté de définir une dimension souvent utili- sée en science forensique, mais encore jamais étudiée dans ses implications et fonctionnements. Cette recherche se lance dans des voies d'étude encore peu explorées en usant d'outils sémiotiques et des pratiques d'enquêtes sociologiques combinés à des traitements statistiques de données. Les résultats sont représentés en suivant une piste sémiotique fortement influencée par les écrits de Peirce et une seconde piste dite empirique où des données d'interventions ont été analysées et des investigateurs forensiques interviewés sur leurs pratiques de travail sur le terrain. Par la piste sémiotique, une vision macroscopique du processus de signification de la trace en élément pertinent est représentée. La trace est perçue sous la forme de plusieurs signes dont la signification est codifiée culturellement. Le raisonnement se formaliserait en trois principales étapes : 1- Quel type de source évoque la trace détectée? 2- Quelle cause/activité est à l'origine de cette source dans le contexte précis du cas ? 3- Quelle histoire peut être racontée à partir de ces observations ? Cette dernière étape consiste à raisonner en créant des hypothèses devant expliquer la présence de la trace détectée suite à une activité posée comme étant en lien avec le cas investigué. Pour valider ces hypothèses, cela dépendrait de leur capacité à répondre à une règle, celle de la pertinence. Cette dernière étape consiste en la symbolisation de la pertinence. La règle se composerait de deux points : la reconnaissance de la pertinence factuelle (le lien entre la trace et le cas est-il reconnu dans l'hypothèse fournie?) et la pertinence appropriée (quel est l'investissement à fournir dans la collecte et l'exploitation de la trace pour le bénéfice attendu au niveau de l'investigation/renseignement?). Tout ce processus de signification se base sur des observations et un raisonnement conjectural soumis à de nombreuses influences. Dans cette étude, la pertinence en science forensique se formalise sous les traits d'une dimension conventionnelle, symbolisée, conditionnée par le contexte, la pratique de l'investigateur forensique et la culture du milieu ; en somme cette recherche avance que la pertinence est le fruit d'une interaction entre des paramètres d'ordre situationnel, structurel (ou organisationnel) et individuel. Garantir la détection, la collecte et l'exploitation des traces pertinentes sur les lieux dépend de la connaissance et d'une culture maîtrisées par le forensicien. Dans l'étude du rapport trace pertinente-investigateur forensique, la présente recherche pose le modèle SFE comme une carte conceptuelle illustrant trois grands axes d'acquisition de la connaissance et de la culture forensiques intervenant dans la recherche et l'évaluation de la trace pertinente. Par l'analyse des données d'in- terventions et des entretiens, le rapport entre ces trois paramètres et la pertinence a été mis en évidence. S, pour savoir, incarne un rapport à la connaissance immédiate pour se faire une représentation d'une réalité à un instant donné, un point important pour une pertinence qui se comprend dans un contexte. F, pour formation, se conçoit dans son rapport à la pertinence via cette culture qui tend à s'institutionnaliser (soit une connaissance théorique). Quant au paramètre E, pour expérience, il se comprend dans son rapport à la pertinence dans cet ajustement des stratégies d'intervention (soit une connaissance pratique) de chaque praticien ayant modulé leur travail au regard des succès et échecs enregistrés cas après cas. F et E formeraient la bibliothèque de ressources permettant le processus de reconnaissance sémiotique et S assurerait la contextualisation nécessaire pour poser le raisonnement et formuler les hypothèses explicatives pour les traces détectées et questionnées dans leur pertinence. Ce travail démontre que la pertinence n'est pas absolue. Elle est temporelle et contextuelle, c'est une dimension conventionnelle relative et interprétée qui se doit d'être discutée. C'est là que repose toute la problématique de la signification de ce qui est pertinent pour chaque participant du processus d'investigation. En proposant une lecture par étapes du processus de signification depuis la trace à l'indice, l'étude vise à offrir une compréhension plus poussée du raisonnement et de son fonctionnement pour renforcer la formation des intervenants forensiques. Cette recherche présente ainsi un ensemble d'outils critiques à portée tant pédagogiques que pratiques pour la gestion des lieux tout en identifiant des influences-clé jouées par des dimensions individuelles, structurelles et situationnelles.
Resumo:
This article makes a revision of the most eminent contributions in Geography in relation to the forest study, starting with principal Spanish geographical journals, congress transactions and other bibliography about forest questions. A selection of the most eminent bibliography has been made paying special attention to three main subjects: forest and forest science history, forest and landscape description, and forest management
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
THESIS ABSTRACT Garnets are one of the key metamorphic minerals used to study peak metamorphic conditions or crystallization ages. Equilibrium is typically assumed between the garnet and the matrix. This thesis attempts to understand garnet growth in the Zermatt-Saas Fee (ZSF) eclogites, and discusses consequences for Sm/Nd and Lu/Hf dating and the equilibrium assumption. All studied garnets from the ZSF eclogites are strongly zoned in Mn, Fe, Mg, and Ca. Methods based on chemical zoning patterns and on 3D spatial statistics indicate different growth mechanisms depending on the sample studied. Garnets from the Pfulwe area are grown in a system where surface kinetics likely dominated over intergranular diffusion kinetics. Garnets fram two other localities, Nuarsax and Lago di Cignana, seem to have grown in a system where intergranular diffusion kinetics were dominating over surface kinetics, at least during initial growth. Garnets reveal strong prograde REE+Y zoning. They contain narrow central peaks for Lu + Yb + Tm ± Er and at least one additional small peak towards the rim. The REE Sm + Eu + Gd + Tb ± Dy are depleted in the cores but show one prominent peak close to the rim. It is shown that these patterns cam be explained using a transient matrix diffusion model where REE uptake is limited by diffusion in the matrix surrounding the porphyroblast. The secondary peaks in the garnet profiles are interpreted to reflect thermally activated diffusion due to a temperature increase during prograde metamorphism. The model predicts anomalously low 176Lu/177Hf and 147Sm/144Nd ratios in garnets where growth rates are fast compared to diffusion of the REE, which decreases garnet isochron precisions. The sharp Lu zoning was further used to constrain maximum Lu volume diffusion rates in garnet. The modeled minimum pre-exponential diffusion coefficient which fits the measured central peak is in the order of Do = 5.7* 106 m2/s, taking an activation energy of 270 kJ/mol. The latter was chosen in agreement with experimentally determined values. This can be used to estimate a minimum closure temperature of around 630°C for the ZSF zone. Zoning of REE was combined with published Lu/Hf and Sm/Nd age information to redefine the prograde crystallization interval for Lago di Cignana UHP eclogites. Modeling revealed that a prograde growth interval in the order of 25 m.y. is needed to produce the measured spread in ages. RÉSUMÉ Le grenat est un minéral métamorphique clé pour déterminer les conditions du pic de métamorphisme ainsi que l'âge de cristallisation. L'équilibre entre le grenat et la matrice est requis. Cette étude a pour but de comprendre la croissance du grenat dans les éclogites de la zone de Zermatt-Saas Fee (ZSF) et d'examiner quelques conséquences sur les datations Sm/Nd et Lu/Hf. Tous les grenats des éclogites de ZSF étudiés sont fortement zonés en Mn, Fe, Mg et partiellement en Ca. Les différentes méthodes basées sur le modèle de zonation chimique ainsi que sur les statistiques de répartition spatiale en 3D indiquent un mécanisme de croissance différent en fonction de la localité d'échantillonnage. Les grenats provenant de la zone de Pfulwe ont probablement crû dans un système principalement dominé par la cinétique de surface au détriment de 1a cinétique de diffusion intergranulaire. Les grenats provenant de deux autres localités, Nuarsax et Lago di Cignana, semblent avoir cristallisé dans un système dominé par la diffusion intergranulaire, au moins durant les premiers stades de croissance. Les grenats montrent une forte zonation prograde en Terres Rares (REE) ainsi qu'en Y. Les profils présentent au coeur un pic étroit en Lu + Yb+ Tm ± Er et au moins un petit pic supplémentaire vers le bord. Les coeurs des grenats sont appauvris en Sm + Eu + Gd + Tb ± Dy, mais les bords sont marqués par un pic important de ces REE. Ces profils s'expliquent par un modèle de diffusion matricielle dans lequel l'apport en REE est limité par la diffusion dans la matrice environnant les porphyroblastes. Les pics secondaires en bordure de grain reflètent la diffusion activée par l'augmentation de la température lors du métamorphisme prograde. Ce modèle prédit des rapports 176Lu/177Hf et 147Sm/144Nd anormalement bas lorsque les taux de croissance sont plus rapides que la diffusion des REE, ce qui diminue la précision des isochrones impliquant le grenat. La zonation nette en Lu a permis de contraindre le maximum de diffusion volumique par une approche numérique. Le coefficient de diffusion minimum modélisé en adéquation avec les pics mesurés est de l'ordre de Do = 5.7*10-6 m2/s, en prenant une énergie d'activation ~270 kJ/mol déterminée expérimentalement. Ainsi, la température de clôture minimale est estimée aux alentours de 630°C pour la zone ZSF. Des nouvelles données de zonation de REE sont combinées aux âges obtenus avec les rapports Lu/Hf et Sm/Nd qui redéfissent l'intervalle de cristallisation prograde pour les éclogites UHP de Lago di Cignana. La modélisation permet d'attribuer au minimum un intervalle de croissance prograde de 25 Ma afin d'obtenir les âges préalablement mesurés. RESUME GRAND PUBLIC L'un des principaux buts du pétrologue .métamorphique est d'extraire des roches les informations sur l'évolution temporelle, thermique et barométrique qu'elles ont subi au cours de la formation d'une chaîne de montagne. Le grenat est l'un des minéraux clés dans une grande variété de roches métamorphiques. Il a fait l'objet de nombreuses études dans des terrains d'origines variées ou lors d'études expérimentales afin de comprendre ses domaines de stabilité, ses réactions et sa coexistence avec d'autres minéraux. Cela fait du grenat l'un des minéraux les plus attractifs pour la datation des roches. Cependant, lorsqu'on l'utilise pour la datation et/ou pour la géothermobarométrie, on suppose toujours que le grenat croît en équilibre avec les phases coexistantes de la matrice. Pourtant, la croissance d'un minéral est en général liée au processus de déséquilibre. Cette étude a pour but de comprendre comment croît le grenat dans les éclogites de Zermatt - Saas Fee et donc d'évaluer le degré de déséquilibre. Il s'agit aussi d'expliquer les différences d'âges obtenues grâce aux grenats dans les différentes localités de l'unité de Zermatt-Saas Fee. La principale question posée lors de l'étude des mécanismes de croissance du grenat est: Parmi les processus en jeu lors de la croissance du grenat (dissolution des anciens minéraux, transport des éléments vers le nouveau grenat, précipitation d'une nouvelle couche en surface du minéral), lequel est le plus lent et ainsi détermine le degré de déséquilibre? En effet, les grenats d'une des localités (Pfulwe) indiquent que le phénomène d'adhérence en surface est le plus lent, contrairement aux grenats des autres localités (Lago di Cignana, Nuarsax) dans lesquels ce sont les processus de transport qui sont les plus lents. Cela montre que les processus dominants sont variables, même dans des roches similaires de la même unité tectonique. Ceci implique que les processus doivent être déterminés individuellement pour chaque roche afin d'évaluer le degré de déséquilibre du grenat dans la roche. Tous les grenats analysés présentent au coeur une forte concentration de Terres Rares: Lu + Yb + Tm ± Er qui décroît vers le bord du grain. Inversement, les Terres Rares Sm + Eu + Gd + Tb ± Dy sont appauvries au coeur et se concentrent en bordure du grain. La modélisation révèle que ces profils sont-dus à des cinétiques lentes de transport des Terres Rares. De plus, les modèles prédisent des concentrations basses en éléments radiogéniques pères dans certaines roches, ce qui influence fortement sur la précision des âges obtenus par la méthode d'isochrone. Ceci signifie que les roches les plus adaptées pour les datations ne doivent contenir ni beaucoup de grenat ni de très gros cristaux, car dans ce cas, la compétition des éléments entre les cristaux limite à de faibles concentrations la quantité d'éléments pères dans chaque cristal.