995 resultados para Freezing temprature
Resumo:
THESIS ABSTRACT Low-pressure anatexis of basic dykes gave rise to unusual, zebra-like migmatites, in the contact metamorphic aureoles of two layered gabbro-pyroxenite intrusions, PXl and PX2, in the root zone of an ocean island, Fuerteventura Basal Complex (Canary Islands). This thesis focuses on the understanding of processes attributing to the partial melting and formation of these migmatites, characterised by a dense network of closely spaced, millimetre-wide leucocratic segregations with perfectly preserved igneous textures. The presence of fluids are required to decrease the solidus of basic igneous lithologies, to allow partial melting in such aloes-pressure (1-2 kb) environment. An oxygen isotope study was thus carried out on dykes inside and beyond the PX2 aureole, in order to decipher the nature and origin of such fluids. Low or negative δ18O values were obtained for whole rocks and mineral-separates, decreasing towards the contact, with the intrusion itself retaining fairly high values. This trend has been attributed to the advection of meteoric water during magma emplacement, with increasing fluid/rock ratios (higher dyke intensities towards the intrusion acting as fluid-pathways) and higher temperatures promoting increasing exchange during recrystallisation. A comparison of whole rock and mineral major- and trace- element data allowed the redistribution of elements .between different mineral phases and generations, during contact metamorphism and partial melting to be assessed. Certain trace-elements, e.g. Zr, Hf, Y, and REEs, were internally redistributed during contact metamorphic recrystallisation, causing- the enrichment of neocrystallised diopsides compared to relict phenocrysts. This has been assigned to the liberation of trace elements on the breakdown of primary minerals, kaersutite and sphene, on entering the thermal aureole. Major and trace element compositions of minerals in migmatite melanosomes and leucosomes are almost identical, pointing to a syn- or post- solidus reequilibration on cooling of the migmatite terrain. The mineralogical, textural and geochemical evolution of dykes in a contact metamorphic aureole, is recorded around an apophysis of the PX1 intrusion, where there is evidence of incipient partial melting. Hydrothermal mineral pseudomorphs in the outer parts of the aureole are progressively replaced by dry mineral assemblages, with increasingly recrystallised diopside and evidence of partial melting -the extent of which varies from one lithology to another. The appearance of more mafic lithologies towards the intrusion, with lower whole rock SiO2 and mobile element abundances, e.g. Rb, Cs, K, has been explained by the migration and accumulation of feldspathic material into leucosomes outside the samples. A micro-structural study of leucosomes and leucocratic pods, with the aid of high-resolution X-ray computed micro-tomography (HRXµCT), allowing the visualization and quantification of shapes and orientations, was carried out in order to better understand the processes of melt segregation in the PX1 aureole. Leucocratic pods, representing former amygdales, are considered as natural strain ellipsoids. Their short axes are oriented perpendicular to leucosome planes, which sub-parallel the intrusive contact. Leucosomes thus effectively represent foliation planes. This implies that the direction of maximum shortening, during migmatisation, was perpendicular to the orientation of leucosomes, contradicting earlier models that suggest leucosomes represent tension veins. RESUME DE LA THESE Un phénomène rare de fusion partielle de filons basiques à basse pression a été étudié dans les auréoles de contact de deux intrusions litées de gabbro-pyroxénite, PX1 et PX2, localisées dans le soubassement de l'île volcanique de Fuerteventura aux Canaries. Cette anatexie a engendré des migmatites finement zébrées d'aspect très inhabituel, dont les processus de formation ont été étudiés dans le présent travail. Ces roches sont caractérisées par un réseau dense de veinules leucocrates d'épaisseur millimétrique, dont les textures ignées sont parfaitement préservées. La fusion partielle de roches basiques à basse pression (1-2 kbar) requiert la présence d'eau afin d'abaisser le solidus du système à des températures géologiquement réalistes. Une étude comparative des isotopes de l'oxygène a ainsi été menée sur des filons respectivement affectés et non affectés par le métamorphisme de contact, afin de confirmer la présence de ces fluides, de déterminer l'importance de leur interaction avec les roches et leur origine. Des valeurs de δ180 basses ou négatives ont été mesurées sur roche totale et minéraux séparés, décroissantes en direction du contact, alors que l'intrusion elle-même a conservé des valeurs élevées. Ce gradient a été attribué à l'advection d'eau météorique durant la mise en place du magma, les températures les plus élevées favorisant d'autant plus la circulation des fluides et les échanges isotopiques durant la recristallisation des roches. Cette recristallisation engendré une redistribution chimique complète des éléments entre les différentes générations de minéraux résultant du métamorphisme de contact et de l'anatexie, mise en évidence par microanalyse. Certains éléments traces comme Zr, Hf, Y et les REE ont été concentrés dans le diopside néoformé consécutivement à la déstabilisation de minéraux primaires riches en ces éléments comme la kaersutite ou le sphène. Les compositions en éléments majeurs et traces des minéraux des mélanosomes et leucosomes des migmatites sont pratiquement identiques, indiquant une rééquilibration syn- à postsolidus lors du refroidissement de l'auréole de contact. La transformation progressive des filons basiques au niveau de leur minéralogie, textures et composition chimique a pu être observée en détail à l'approche du contact d'une apophyse de l'intrusion PX1. La paragenèse magmatique initiale n'est jamais préservée, les faciès les plus distants du contact étant constitués d'un assemblage pseudomorphique hydrothermal. Ce dernier est progressivement remplacé par des assemblages anhydres incluant du diopside néoformé, puis apparaissent les premiers signes de fusion partielle, dont l'importance varie fortement d'une lithologie à l'autre. L'apparition de faciès plus basiques en direction du contact, avec des teneurs réduites en SiO2 et en éléments incompatibles tels Rb, Cs, K, a été attribuée à l'échappement de leucosomes feldspathiques hors du système. Une étude microstructurale de la distribution spatiale du matériel leucocrate au sein des migmatites par microtomographie X de haute résolution (HRXµCT) a été menée pour mieux comprendre les processus de ségrégation des liquides dans l'auréole de PX1. De petites entités ovoïdes, représentant d'anciennes structures amygdalaires au sein des filons, ont été considérées comme des ellipsoïdes marqueurs de la déformation finie. Leur petit axe est orienté perpendiculairement aux plans définis par les leucosomes, eux-mêmes subparallèles au contact intrusif. Les leucosomes matérialisent donc des plans de clivage. Ainsi, la direction de raccourcissement maximum durant la fusion partielle était perpendiculaire à l'orientation des leucosomes, contrairement à ce qui a été dit dans de précédentes publications, qui suggéraient que les leucosomes représentaient des veines de tension. RESUME DE LA THESE (POUR LE GRAND PUBLIC) L'observation directe du soubassement d'une île volcanique est une occasion rare, accessible dans le «complexe de base » de l'île canarienne de Fuerteventura. Ce dernier a enregistré divers phénomènes magmatiques, métamorphiques et de fusion partielle induits par l'intrusion répétée de magmas alimentant des appareils volcaniques sus jacents, sous forme de petits plutons, essaims de filons et complexes annulaires de gabbros alcalins, pyroxénites, syénites et carbonatites. Dans ce contexte de flux de chaleur élevé, des filons basiques ont subi une fusion partielle au contact de deux intrusions de gabbro-pyroxénite, un phénomène extrêmement rare à une profondeur aussi réduite, estimée à quelque 3-6 km. Les produits de cette fusion partielle sont des liquides très riches en feldspath, concentrés en un réseau dense de veinules blanches (leucosomes) au sein du matériau résiduel sombre non fondu (mélanosome) pour former ce qu'on appelle des migmatites. Outre les aspects pétrologiques liés à la formation de ces migmatites, l'intérêt majeur du phénomène réside dans le fait qu'il puisse représenter la source des magmas évolués parfois observés sur les îles océaniques. A des pressions aussi faibles que dans le soubassement de Fuerteventura (1-2 Kbar), la présence de fluides abondants est nécessaire pour abaisser la température de début de fusion des roches (solidus) à des valeurs géologiquement réalistes. Des expériences ont montré que même en présence de plusieurs %-poids d'eau, une température de 1000°C était encore nécessaire pour obtenir une proportion de liquide équivalente à celle observée sur le terrain, soit 25%. Or les magmas alcalins des îles océaniques, bien qu'hydratés, n'en contiennent de loin pas autant, ce qui implique une source d'eau externe. Une étude isotopique de l'oxygène a été entreprise afin de tester cette hypothèse. Les valeurs obtenues en 5180 sont basses ou négatives et indiquent l'influence d'eau d'origine météorique. Cette eau de pluie se serait infiltrée le long des filons depuis la surface du volcan et les aurait complètement hydrothermalisés en profondeur (situation encore visible à l'extérieur de l'auréole de contact), leur permettant ainsi de stocker l'eau nécessaire à leur fusion partielle ultérieure. L'interaction entre eau de pluie et filons a été d'autant plus importante que ces derniers étaient proches du contact avec l'intrusion, ce qui suggère que la circulation de ces eaux et leur interaction avec les roches a été favorisée par la chaleur fournie par l'intrusion elle-même. Un autre aspect de ce travail s'est focalisé sur la redistribution des éléments traces au sein des minéraux des filons basiques durant le métamorphisme de contact et la fusion partielle. Ainsi, le pyroxène de seconde génération est-il sensiblement enrichi en traces telles Zr, Hf, Y et les terres rares, par rapport au pyroxène magmatique originel, en relation avec la déstabilisation de minéraux primaires riches en ces éléments tels le sphène et la kaersutite. Cependant, les compositions en éléments majeurs et traces des minéraux recristallisés des migmatites sont pratiquement les mêmes dans les leucosomes et les mélanosomes, suggérant une rééquilibration chimique complète durant le refroidissement de ces lithologies. Si certaines migmatites se sont comportées en système chimiquement fermé (hormis l'eau météorique), d'autres filons ont manifestement perdu une partie de leurs leucosomes, ainsi qu'en témoigne leur composition progressivement appauvrie en silice et autres éléments incompatibles mobiles, tels K et Rb à l'approche du contact de l'intrusion. Parallèlement à cette évolution chimique, les paragenèses hydrothermales distantes du contact sont progressivement remplacées par des paragenèses anhydres, puis par l'apparition des premiers leucosomes, tandis que les textures magmatiques initiales sont complètement effacées au profit d'une combinaison de textures magmatique dans les leucosomes et en mosaïque dans les mélanosomes. Enfin, la distribution spatiale des liquides de fusion partielle a été étudiée par microtomographie X de haute résolution, dans des filons contenant des entités ovoïdes leucocrates, sans doute d'anciennes amygdales à zéolites. Ces dernières ont été considérées comme des ellipsoïdes de la déformation finie. L'orientation de leur petit axe, perpendiculaire au plan défini par les veinules de leucosomes, indique que ces derniers représentent des plans de clivage perpendiculaires à la direction de raccourcissement maximum. Ainsi, la ségrégation des liquides de fusion partielle se serait faite dans les plans de compression et non dans des plans de dilatation, contrairement à ce que laisserait penser le sens commun.
Resumo:
Estudia los resultados acerca del uso y ventajas de la técnica de congelación de ovarios mediante un criostato portátil, para estimar a tiempo real, el estado reproductivo de la anchoveta mediante análisis microscópico de gónadas, durante los cruceros de evaluación.
Resumo:
L'Institut de Police Scientifique (IPS) de Lausanne a développé et emploie une méthode de profilage de l'héroïne qui permet d'établir des liens entre les saisies de différentes affaires. La comparaison s'appuie sur des caractéristiques chimiques. Au cours du trafic, les spécimens sont transportés, stockés et dilués. Leurs caractéristiques chimiques sont alors susceptibles de varier. L'objectif de ce travail consiste à évaluer les conséquences d'une dilution importante sur l'évolution des liens chimiques établis, puis d'observer l'influence de la température et de l'humidité sur le profil chimique d'échantillons d'héroïne placés dans des conditions de vieillissement accéléré. On remarque que la dilution n'influence pas directement le profilage, mais l'inférence d'une source commune entre les spécimens dépend de la différence entre les concentrations des échantillons comparés. Dans le cadre de l'étude de vieillissement, tous les échantillons ont pu être liés et aucune variation significative du profil n'a été constatée. Cependant, les quantités de certains composés ont plus tendance à varier et pourraient être à l'origine d'une modification du profil à long terme.
Resumo:
Brain-derived neurotrophic factor (BDNF) is a protein capable of supporting the survival and fiber outgrowth of peripheral sensory neurons. It has been argued that histological detection of BDNF has proven difficult because of its low molecular weight and relatively low expression. In the present study we report that rapid removal of dorsal root ganglia (DRG) from the rat, followed by rapid freezing and appropriate fixation with cold acetone, preserves BDNF in situ without altering protein antigenicity. Under these conditions, specific BDNF-like immunoreactivity was detected in DRG both in vivo and in vitro. During DRG development in vivo, BDNF-like immunoreactivity (BDNF-LI) was observed only in a subset of sensory neurons. BDNF-LI was confined to small neurons, after neurons became morphologically distinct on the basis of size. BDNF-L immunoprecipitate was detected only in neuronal cells, and not in satellite or Schwann cells. While in vivo BDNF localization was restricted to small neurons, practically all neurons in DRG cell culture displayed BDNF-LI. Small or large primary afferent neurons exhibited a faint but clear BDNF-LI during the whole life span of cultures. Again, non-neuronal cells were devoid of BDNF-LI. In conclusion, in DRG in vivo, specific BDNF-LI was confined to small B sensory neurons. In contrast, all DRG sensory neurons displayed BDNF-LI in vitro. The finding that BDNF expressed in all DRG neurons in vitro but not in vivo suggests that BDNF expression may be modulated by environmental factors.
Effects of fish oil on the neuro-endocrine responses to an endotoxin challenge in healthy volunteers
Resumo:
Résumé Introduction et hypothèse : Certains acides gras polyinsaturés de type n-3 PUFA, qui sont contenus dans l'huile de poisson, exercent des effets non-énergétiques (fluidité des membranes cellulaires, métabolisme énergétique et prostanoïdes, régulation génique de la réponse inflammatoire). Les mécanismes de la modulation de cette dernière sont encore mal connus. L'administration d'endotoxine (LPS) induit chez les volontaires sains une affection inflammatoire aiguë, comparable à un état grippal, associé à des modifications métaboliques et inflammatoires transitoires, similaires au sepsis. Ce modèle est utilisé de longue date pour l'investigation clinique expérimentale. Cette étude examine les effets d'une supplémentation orale d'huile de poisson sur la réponse inflammatoire (systémique et endocrinienne) de sujets sains soumis à une injection d'endotoxine. L'hypothèse était que la supplémentation d'huile de poisson réduirait les réponses physiologiques à l'endotoxine. Méthodes : Quinze volontaires masculins (âge 26.0±3.1 ans) ont participé à une étude randomisée, contrôlée. Les sujets sont désignés au hasard à recevoir ou non une supplémentation orale : 7.2 g d'huile de poisson par jour correspondant à un apport de 1.1 g/jour d'acides gras 20:5 (n-3, acide écosapentaénoïque) et 0.7 g/jour de 22:6 (n-3, acide docosahexaénoïque). Chaque sujet est investigué deux fois dans des conditions identiques : une fois il reçoit une injection de 2 ng par kg poids corporel de LPS intraveineuse, l'autre fois une injection de placebo. Les variables suivantes sont relevées avant l'intervention et durant les 360 min qui suivent l'injection :signes vitaux, dépense énergétique (EE) et utilisation nette des substrats (calorimétrie indirecte, cinétique du glucose (isotopes stables), taux plasmatique des triglycérides et FFA, du glucose, ainsi que des cytokines et hormones de stress (ACTH, cortisol, Adré, Nor-Adré). Analyses et statistiques :moyennes, déviations standards, analyse de variance (one way, test de Scheffé), différences significatives entre les groupes pour une valeur de p < 0.05. Résultats :L'injection de LPS provoque une augmentation de la température, de la fréquence cardiaque, de la dépense d'énergie et de l'oxydation nette des lipides. On observe une élévation des taux plasmatiques de TNF-a et IL-6, de la glycémie, ainsi qu'une élévation transitoire des concentrations plasmatiques des hormones de stress ACTH, cortisol, adrénaline et noradrénaline. L'huile de poisson atténue significativement la fièvre, la réponse neuro-endocrinienne (ACTH et cortisol) et sympathique (baisse de la noradrénaline plasmatique). Par contre, les taux des cytokines ne sont pas influencés par la supplémentation d'huile de poisson. Conclusion : La supplémentation d'huile de poisson atténue la réponse physiologique à l'endotoxine chez le sujet sain, en particulier la fièvre et la réponse endocrinienne, sans influencer la production des cytokines. Ces résultats soutiennent l'hypothèse que les effets bénéfiques de l'huile de poisson sont principalement caractérisés au niveau du système nerveux central, par des mécanismes non-inflammatoires qui restent encore à élucider.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Members of the Chlamydiales order all share a biphasic lifecycle alternating between small infectious particles, the elementary bodies (EBs) and larger intracellular forms able to replicate, the reticulate bodies. Whereas the classical Chlamydia usually harbours round-shaped EBs, some members of the Chlamydia-related families display crescent and star-shaped morphologies by electron microscopy. To determine the impact of fixative methods on the shape of the bacterial cells, different buffer and fixative combinations were tested on purified EBs of Criblamydia sequanensis, Estrella lausannensis, Parachlamydia acanthamoebae, and Waddlia chondrophila. A linear discriminant analysis was performed on particle metrics extracted from electron microscopy images to recognize crescent, round, star and intermediary forms. Depending on the buffer and fixatives used, a mixture of alternative shapes were observed in varying proportions with stars and crescents being more frequent in C. sequanensis and P. acanthamoebae, respectively. No tested buffer and chemical fixative preserved ideally the round shape of a majority of bacteria and other methods such as deep-freezing and cryofixation should be applied. Although crescent and star shapes could represent a fixation artifact, they certainly point towards a diverse composition and organization of membrane proteins or intracellular structures rather than being a distinct developmental stage.
Resumo:
The action of botulinum neurotoxin on acetylcholine release, and on the structural changes at the presynaptic membrane associated with the transmitter release,was studied by using a subcellular fraction of cholinergic nerve terminals (synaptosomes) isolated from the Torpedo electric organ. Acetylcholine and ATP release were continuously monitored by chemiluminescent methods.To catch the membrane morphological changes, the quick-freezing method was applied. Our results show that botulinum neurotoxin inhibits the release of acetylcholine from these isolated nerve terminals in a dose-dependent manner, whereas ATP release is not affected. The maximal inhibition (70%) is achieved at neurotoxin concentrations as low as 125 pM with an incubation time of 6 min. This effect is not linked to an alteration of the integrity of the synaptosomes since, after poisoning by botulinum neurotoxin type A, they show a nonmodified occluded lactate dehydrogenase activity. Moreover, membrane potential is not altered by the toxin with respect to the control, either in resting condition or after potassium depolarization. In addition to acetylcholine release inhibition, botulinum neurotoxin blocks the rearrangement of the presynaptic intramembrane particles induced by potassium stimulation. The action of botulinum neurotoxin suggests that the intramembrane particle rearrangement is related to the acetylcholine secretion induced by potassium stimulation in synaptosomes isolated from the electric organ of Torpedo marmorata.
Resumo:
RAPPORT DE SYNTHESE Introduction : dans la présente étude, nous nous sommes intéressés à la vasodilatation cutanée induite par le réchauffement local (hyperémie thermique). Il est établi, qu'une partie de cette réponse vasculaire est médiée par l'oxyde nitrique (NO). De manière générale, les effets du NO peuvent être sujets à une désensibilisation, comme nous le démontre le phénomène bien connu de tolérance aux dérivés nitrés. Le but du présent travail était d'évaluer si une telle désensibilisation existe dans le cas de l'hyperémie thermique. Méthodes : nous avons donc examiné si une première stimulation thermique pouvait en atténuer une deuxième, induite plus tard sur le même site cutané à une intervalle de 2h ou 4h. Pour vérifier directement l'effet du réchauffement local sur la sensibilité de la microcirculation cutanée au NO, nous avons de plus appliqué un donneur de NO (nitroprussiate de sodium, SNP) par la technique d' iontophorèse, sur des sites cutanés préalablement soumis à un échauffement local 2h ou 4h auparavant. Nous avons examinés 12 sujets en bonne santé habituelle, de sexe masculin, non fumeurs, âgés de 18 à 30 ans, ne prenant aucune médication. Le flux sanguin dermique a été mesuré par imagerie laser Doppler (LDI, Moor Instruments) sur la face antérieur de l'avant-bras. Le réchauffement local de la peau a été effectué grâce a des petits anneaux métalliques thermo-contrôlés contenant de l'eau. La température était initialement de 34°C. Elle a été augmentée à 41 °C en une minute et maintenue à cette valeur durant 30 minutes. Cette manoeuvre a été répétée sur le même site cutané soit 2 h, soit 4h plus tard. Quant à l'iontophorèse de SNP, elle a été effectuée sur des sites ayant préalablement subi, 2h ou 4h auparavant, un échauffement unique appliqué selon la technique qui vient d'être décrite. Résultats : nous avons observé une atténuation de l'hyperémie thermique lorsque celleci était examinée 2h après un premier échauffement local. Lorsque l'intervalle était de 4h la réponse vasodilatatrice n'était pas réduite. Nous avons également observé une atténuation de la réponse vasodilatatrice au SNP lorsque celui-ci a était appliqué 2h, mais non 4h après un premier échauffement local. Conclusion :cette étude démontre que la réponse vasodilatatrice cutanée induite par l'échauffement local est bien sujette à désensibilisation, comme nous en avions formulé l'hypothèse. Ce phénomène est transitoire. Il est lié, au moins en partie, à une baisse de sensibilité de la microcirculation cutanée aux effets vasodilatateurs du NO.
Resumo:
Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
We study a model for water with a tunable intramolecular interaction Js, using mean-field theory and off-lattice Monte Carlo simulations. For all Js>~0, the model displays a temperature of maximum density. For a finite intramolecular interaction Js>0, our calculations support the presence of a liquid-liquid phase transition with a possible liquid-liquid critical point for water, likely preempted by inevitable freezing. For J=0, the liquid-liquid critical point disappears at T=0.
Resumo:
La présence de fluide météorique synchrone à l'activité du détachement (Farmin, 2003 ; Mulch et al., 2007 ; Gébelin et al., 2011), implique que les zones de cisaillement sont des systèmes ouverts avec des cellules de convections à l'échelle crustale et un intense gradient géothermique au sein du détachement (Morrison et Anderson, 1998, Gottardi et al., 2011). De plus, les réactions métamorphiques liées à des infiltrations fluides dans les zones de cisaillement extensionnel peuvent influencer les paramètres rhéologiques du système (White and Knipe, 1978), et impliquer la localisation de la déformation dans la croûte. Dans ce manuscrit, deux zones de cisaillement infiltrées par des fluides météoriques sont étudiées, l'une étant largement quartzitique, et l'autre de nature granitique ; les relations entre déformation, fluides, et roches s'appuient sur des approches structurales, microstructurales, chimiques et isotopiques. L'étude du détachement du Columbia river (WA, USA) met en évidence que la déformation mylonitique se développe en un million d'années. La phase de cisaillement principal s'effectue à 365± 30°C d'après les compositions isotopiques en oxygène du quartz et de la muscovite. Ces minéraux atteignent l'équilibre isotopique lors de leur recristallisation dynamique contemporaine à la déformation. La zone de cisaillement enregistre une baisse de température, remplaçant le mécanisme de glissement par dislocation par celui de dissolution- précipitation dans les derniers stades de l'activité du détachement. La dynamique de circulation fluide bascule d'une circulation pervasive à chenalisée, ce qui engendre localement la rupture des équilibres d'échange isotopiques. La zone de cisaillement de Bitterroot (MT, USA) présente une zone mylonitique de 600m d'épaisseur, progressant des protomylonites aux ultramylonites. L'intensité de la localisation de la déformation se reflète directement sur l'hydratation des feldspaths, réaction métamorphique majeure dite de « rock softening ». Une étude sur roche totale indique des transferts de masse latéraux au sein des mylonites, et d'importantes pertes de volume dans les ultramylonites. La composition isotopique en hydrogène des phyllosilicates met en évidence la présence (1) d'une source magmatique/métamorphique originelle, caractérisée par les granodiorites ayant conservé leur foliation magmatique, jusqu'aux protomylonites, et (2) une source météorique qui tamponne les valeurs des phyllosilicates des fabriques mylonitiques jusqu'aux veines de quartz non-déformées. Les compositions isotopiques en oxygène des minéraux illustrent le tamponnement de la composition du fluide météorique par l'encaissant. Ce phénomène cesse lors du processus de chloritisation de la biotite, puisque les valeurs des chlorites sont extrêmement négatives (-10 per mil). La thermométrie isotopique indique une température d'équilibre isotopique de la granodiorite entre 600-500°C, entre 500-300°C dans les mylonites, et entre 300 et 200°C dans les fabriques cassantes (cataclasites et veines de quartz). Basé sur les résultats issus de ce travail, nous proposons un modèle général d'interactions fluide-roches-déformation dans les zones de détachements infiltrées par des fluides météoriques. Les zones de détachements évoluent rapidement (en quelques millions d'années) au travers de la transition fragile-ductile ; celle-ci étant partiellement contrôlée par l'effet thermique des circulations de fluide météoriques. Les systèmes de détachements sont des lieux où la déformation et les circulations fluides sont couplées ; évoluant rapidement vers une localisation de la déformation, et de ce fait, une exhumation efficace. - The presence of meteoric fluids synchronous with the activity of extensional detachment zones (Famin, 2004; Mulch et al., 2007; Gébelin et al., 2011) implies that extensional systems involve fluid convection at a crustal scale, which results in high geothermal gradients within active detachment zones (Morrison and Anderson, 1998, Gottardi et al., 2011). In addition, the metamorphic reactions related to fluid infiltration in extensional shear zones can influence the rheology of the system (White and Knipe, 1978) and ultimately how strain localizes in the crust. In this thesis, two shear zones that were permeated by meteoric fluids are studied, one quartzite-dominated, and the other of granitic composition; the relations between strain, fluid, and evolving rock composition are addressed using structural, microstructural, and chemical/isotopic measurements. The study of the Columbia River detachment that bounds the Kettle core complex (Washington, USA) demonstrates that the mylonitic fabrics in the 100 m thick quartzite- dominated detachment footwall developed within one million years. The main shearing stage occurred at 365 ± 30°C when oxygen isotopes of quartz and muscovite equilibrated owing to coeval deformation and dynamic recrystallization of these minerals. The detachment shear zone records a decrease in temperature, and dislocation creep during detachment shearing gave way to dissolution-precipitation and fracturing in the later stages of detachment activity. Fluid flow switched from pervasive to channelized, leading to isotopic disequilibrium between different minerals. The Bitterroot shear zone detachment (Montana, USA) developed a 600 m thick mylonite zone, with well-developed transitions from protomylonite to ultramylonite. The localization of deformation relates directly to the intensity of feldspar hydration, a major rock- softening metamorphic reaction. Bulk-rock analyses of the mylonitic series indicate lateral mass transfer in the mylonite (no volume change), and significant volume loss in ultramylonite. The hydrogen isotope composition of phyllosilicates shows (1) the presence of an initial magmatic/metamorphic source characterized by the granodiorite in which a magmatic, and gneissic (protomylonite) foliation developed, and (2) a meteoric source that buffers the values of phyllosilicates in mylonite, ultramylonite, cataclasite, and deformed and undeformed quartz veins. The mineral oxygen isotope compositions were buffered by the host-rock compositions until chloritization of biotite started; the chlorite oxygen isotope values are negative (-10 per mil). Isotope thermometry indicates a temperature of isotopic equilibrium of the granodiorite between 600-500°C, between 500-300°C in the mylonite, and between 300 and 200°C for brittle fabrics (cataclasite and quartz veins). Results from this work suggest a general model for fluid-rock-strain feedbacks in detachment systems that are permeated by meteoric fluids. Phyllosilicates have preserved in their hydrogen isotope values evidence for the interaction between rock and meteoric fluids during mylonite development. Fluid flow generates mass transfer along the tectonic anisotropy, and mylonites do not undergo significant volume change, except locally in ultramylonite zones. Hydration of detachment shear zones attends mechanical grain size reduction and enhances strain softening and localization. Self-exhuming detachment shear zones evolve rapidly (a few million years) through the transition from ductile to brittle, which is partly controlled by the thermal effect of circulating surface fluids. Detachment systems are zones in the crust where strain and fluid flow are coupled; these systems. evolve rapidly toward strain localization and therefore efficient exhumation.