999 resultados para Modèles opérants internes
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
La pression exercée par les activités humaines menace pratiquement tous les écosystèmes aquatiques du globe. Ainsi, sous l'effet de divers facteurs tels que la pollution, le réchauffement climatique ou encore la pêche industrielle, de nombreuses populations de poissons ont vu leurs effectifs chuter et divers changements morphologiques ont été observés. Dans cette étude, nous nous sommes intéressés à une menace particulière: la sélection induite par la pêche sur la croissance des poissons. En effet, la génétique des populations prédit que la soustraction régulière des individus les plus gros peut entraîner des modifications rapides de certains traits physiques comme la croissance individuelle. Cela a par ailleurs été observé dans de nombreuses populations marines ou lacustres, dont les populations de féras, bondelles et autres corégones des lacs suisses. Toutefois, malgré un nombre croissant d'études décrivant ce phénomène, peu de plans de gestion en tiennent compte, car l'importance des effets génétiques liés à la pêche est le plus souvent négligée par rapport à l'impact des changements environnementaux. Le but premier de cette étude a donc été de quantifier l'importance des facteurs génétiques et environnementaux. Dans le premier chapitre, nous avons étudié la population de palée du lac de Joux (Coregonus palaea). Nous avons déterminé les différentiels de sélection dus à la pêche, c'est-à-dire l'intensité de la sélection sur le taux de croissance, ainsi que les changements nets de croissance au cours du temps. Nous avons observé une baisse marquée de croissance et un différentiel de sélection important indiquant qu'au moins 30% de la diminution de croissance observée était due à la pression de sélection induite par la pêche. Dans le deuxième chapitre, nous avons effectué les mêmes analyses sur deux espèces proches du lac de Brienz (C. albellus et C. fatioi) et avons observé des effets similaires dont l'intensité était spécifique à chaque espèce. Dans le troisième chapitre, nous avons analysé deux autres espèces : C. palaea et C. confusus du lac de Bienne, et avons constaté que le lien entre la pression de sélection et la diminution de croissance était influencé par des facteurs environnementaux. Finalement, dans le dernier chapitre, nous avons étudié les effets potentiels de différentes modifications de la taille des mailles des filets utilisés pour la pêche à l'aide de modèles mathématiques. Nous concluons que la pêche a un effet génétique non négligeable (et donc peu réversible) sur la croissance individuelle dans les populations observée, que cet effet est lié à la compétition pour la nourriture et à la qualité de l'environnement, et que certaines modifications simples de la taille des mailles des filets de pêche pourraient nettement diminuer l'effet de sélection et ainsi ralentir, voir même renverser la diminution de croissance observée.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.
Hydrogen isotope fractionations between amphiboles, micas, and fluids in alkaline igneous intrusions
Resumo:
RÉSUMÉ DE LA THÈSE Les teneurs des amphiboles en éléments majeurs et en isotopes stables ont été analysées dans plusieurs complexes ignés alcalins et hyperalcalins, dans le but de déterminer l'importance des variations de composition des minéraux pour le fractionnement isotopique de l'hydrogène dans un système naturel minéral-magma-fluide. Cette étude se concentre principalement sur les syénites néphéliniques de complexes intrusifs alcalins bien connus mais à chimie variable, dont les amphiboles, ainsi que d'autres silicates hydratés tels que micas et eudialytes, lorsque cela était possible, ont été séparés. L'intérêt principal s'est porté sur le complexe alcalin d'Ilímaussaq de la Province du Gardar, au Sud du Groenland. Dans une optique de comparaison, nous avons collecté et analysé d'autres échantillons provenant du complexe de Tugtutôq (Sud Groenland), des complexes de Khibina et Lovozero (Péninsule de Kola, Russie), du Mont St-Hilaire et du Mont Royal (Canada) et de 6 autres du nord-ouest de la Namibie (Cape Cross, Okenyenya, Messum, Etaneno, Kalkfeld,et Okorusu). Les compositions isotopiques de l'hydrogène des amphiboles des ces différentes zones présentent de grandes variations (-227 à -700/00), ce qui est atypique pour des magmas d'origine mantellique. Les valeurs comprises entre -80 et -400/00 indiquent une provenance du manteau. Ces larges variations de compositions ainsi que l'extrême appauvrissement en isotope lourd de l'hydrogène (D), en comparaison avec d'autres roches ignées, semblent être propres.aux roches alcalines et hyperalcalines de ce type, ce qui indiquerait un processus commun. Les différents complexes alcalins choisis présentent un large intervalle de composition chimique des amphiboles. La caractérisation des amphiboles par microscopie électronique et par spectroscopie Mössbauer contribuent à observer le contrôle du Fe sur le fractionnement des isotopes de l'hydrogène. En effet, cela a mis en évidence un contrôle du Fe sur le fractionnement et même, dans le cas du complexe hyperalcalin d'Ilímaussaq, une relation entre le rapport Fei3+/FeT et les variations du rapport D/H. Les complexes étudiés diffèrent de par leur index agpaïtique (Na+K/Al) et également de par leur contenu en fer. Les plus hautes valeurs en Fe (27-35 wt%) et en éléments alcalins dans les amphiboles, ainsi que les teneurs de D/H les plus basses et leur grande variation, sont celles du complexe d'Ilímaussaq. Les amphiboles de la Péninsule de Kola et du Canada sont similaires, mais toutefois moins appauvries en D. En ce qui concerne les amphiboles des complexes du NO de la Namibie, elles présentent des compositions isotopiques de l'hydrogène magmatiques normales (-73 à -100 0/00), contiennent moins de Fe (15-17 wt%) et sont fortement enrichies en Ca et moins en Na. Dans ce cas, l'alcalinité est moins importante en comparaison des autres complexes étudiés. En dehors des teneurs en éléments alcalins des amphiboles, l'alcalinité des fluides s'avère également un facteur important, ce qui est cohérent avec certaines suggestions à partir de systèmes expérimentaux. Afin de mieux contraindre ce facteur, des expériences d'échanges hydrothermaux entre les amphiboles et les fluides de salinité différente ont été effectuées en simulant des conditions naturelles. L'approximation d'amphiboles naturelles de complexes ignés alcalins, couplée aux expériences d'échange, aide à préciser les facteurs contrôlant le fractionnement des isotopes de l'hydrogène dans les roches alcalines. Les valeurs extrêmement basses de 3D des amphiboles de ces complexes alcalins peuvent être dues à une combinaison de différents facteurs, telles qu'une haute alcalinité, une haute teneur en Fe et une faible profondeur d'intrusion. Les grandes variations ainsi que les faibles valeurs de SD des amphiboles étudiées peuvent résulter d'un processus magmatique interne et il est peu probable que de l'eau météorique soit impliquée et/ou que le dégazage magmatique ait joué un rôle. THESIS ABSTRACT Major element and stable isotope compositions of amphiboles were analyzed from a number of alkaline and peralkaline igneous complexes in order to determine the importance of compositional variations in minerals to hydrogen isotope fractionations in natural mineral-melt-fluid systems. The thesis mainly focuses on nepheline syenites of well-studied, but chemically variable alkaline intrusive rocks, from which amphiboles and, if possible, other hydrous silicates such as micas and eudialytes were separated. The system of primary interest was the alkaline Ilímaussaq Complex of the Gardar Province of South Greenland. For the purpose of comparison additional samples were collected and examined from the Tugtutôq Complex (South Greenland), the Khibina and Lovozero Complexes (Kola Peninsular, Russia), Mount St-Hilaire and Mount Royal (Canada) and six further complexes from NW Namibia (Cape Cross, Okenyenya, Messum, Etaneno, Kalkfeld, and Okorusu). The hydrogen isotope compositions of amphiboles from the localities studied differ greatly, which is atypical for amphiboles from mantle, range between - 227 and - 700/00 (latter compatible with a simple mantle origin). As this wide range in compositions and the extreme depletion in the heavy hydrogen isotope (D) content relative to other igneous rocks appear to be unique to alkaline to peralkaline rocks of this type, a common process is indicated. The different alkaline complexes chosen cover a wide range of amphibole chemical compositions. Detailed chemical characterization of amphiboles by electron microprobe and Mössbauer spectroscopy analyses helped to constrain the control of Fe on the H-isotope fractionations. Complete characterization of the chemical compositions of the amphiboles support Fe-control on fractionations and at least for the peralkaline Ilímaussaq complex a relationship between Fe3+/FeT ratios and variations in D/H. The studied complexes differ in their agpaitic index (Na+K/Al) and also in their Fe-content. The most iron (27-35 wt. %) and alkaline element rich amphiboles, with the lowermost D/H ratio, as well with very wide range, are the ones from Ilímaussaq complex. Similar, but less D depleted amphiboles are from the Kola Peninsula and the Canadian localities. The complexes described from NW Namibia have amphiboles with normal magmatic hydrogen isotope composition (-730/00 to -1000/00), and have less Fe-content (15-17 wt. %), and are more Ca-and less Na-rich. In this case alkalinity is not that important in comparison to the other studied complexes. Beside the alkaline element contents in the amphiboles, the alkalinity of the fluids has been found to be an important factor, in conjunction with earlier suggestions from experimental systems. To further constrain this factor, hydrothermal exchange experiments between amphiboles and fluids of different salinity simulating natural conditions were performed. The approach of examining natural amphiboles from alkaline igneous complexes in parallel to performing exchange experiments - helped to further constrain the factors controlling the H-isotope fractionations in alkaline rocks. The observed changes between the hydrogen and oxygen isotope compositions of amphiboles and fluids before and after the experiments suggest that another phase was produced during the experiments, which influenced the final hydrogen isotope composition of the system. This presumably hydrous phase has also influenced the Fe3 +/Fe2+ ratio of the amphiboles, which became more oxidized. The extremely low SD values of amphiboles in these alkaline complexes may be due to a combination of different factors such as high alkalinity, high Fe-content, and shallow intrusion depths. This wide range and the low SD values of the amphiboles studied might be a result of internal, magmatic processes and it is unlikely that meteoric water was involved and/or magmatic degassing played an important role. RÉSUMÉ DE LA THÈSE (pour le grand public) Fractionnement isotopique de l'hydrogène entre amphiboles, micas et fluides dans des intrusions alcalines Zsófia Wáczek Directeur de thèse, Prof. Torsten W. Vennemann Institut de Minéralogie et Géochimie, Université de Lausanne Les roches alcalines et celles qui leurs sont associées sont des sources importantes de nombreux minéraux et minerais, tels l'apatite, le niobium, le diamant et autres pierres précieuses. Cette étude se concentre sur des complexes alcalins localisés dans le sud du Groenland, au Canada, dans la péninsule de Kola en Russie et au nord-ouest de la Namibie. Ces complexes sont composés de roches ayant cristallisé à partir de magmas et de fluides très enrichis en alcalins. Cet enrichissement permet la précipitation de minéraux inhabituels riches en potassium et/ou sodium, telles les amphiboles sodiques, également enrichies en fer. Les amphiboles étudiées ont des compositions calciques, sodi-calciques et sodiques, qui reflètent leurs différents environnements de formation. Des études précédentes ont révélé une large gamme de rapports isotopiques de l'hydrogène dans les amphiboles de roches hyperalcalines, dont certains extrêmement bas. Cette variation importante est très intrigante, sachant que des valeurs entre -40 et -800/00 correspondent à des silicates ignés hydratés et non altérés, alors que des valeurs descendant jusqu'a -1500/00 nécessiteraient une altération par de l'eau météorique et/ou une contamination par les roches environnantes ou des sédiments riches en matière organique. Dans lé cas précis du complexe d'Ilímaussaq (sud du Groenland), aucune de ces explications n'a pu être démontrée et des valeurs encore plus faibles ont été trouvées. Le complexe d'Ilímaussaq présente des valeurs de rapport isotopique de l'hydrogène entre -227 et -500/00 dans les amphiboles. Une origine mantellique permet d'expliquer les valeurs élevées, mais d'autres processus doivent entrer en jeu pour engendrer les valeurs les plus négatives. C'est à l'identification de ces processus que nous nous sommes attachés dans ce travail. Les grandes variations observées dans les teneurs en fer et dans le rapport Fe3+/FeT des roches et des minéraux de ces complexes sont corrélées avec d'autres paramètres chimiques, tels que la composition isotopique de l'hydrogène dans les amphiboles. Nous avons dès lors abordé les questions suivantes: quelle est la relation entre la teneur en fer des amphiboles et leur composition isotopique? Que nous apprennent les changements de la teneur en fer et les changements dans le rapport Fe3+/FeT sur les processus pétrologiques dans ces roches? Pour répondre à ces questions, nous avons analysé les compositions isotopiques de l'oxygène et de l'hydrogène dans les amphiboles et d'autres silicates hydratés. La composition chimique et le rapport Fe3+/FeT des amphiboles ont également été déterminés. Des expériences hydrothermales simulant des conditions naturelles ont été entreprises afin de mieux comprendre les processus de fractionnement isotopiques dans ces systèmes très alcalins. Nos conclusions sont les suivantes: (1) Les valeurs extrêmement faibles ainsi que les larges variations des rapports isotopiques de l'hydrogène des amphiboles de ces complexes alcalins sont dues à une combinaison de facteurs tels que la forte alcalinité, la haute teneur en fer et la profondeur très faible de l'intrusion. (2) Ces valeurs sont probablement le résultat de processus magmatiques internes. (3) Il est peu probable que les eaux météoriques et/ou le dégazage magmatique aient joué un rôle lors de la formation de ces amphiboles. (4) Certaines corrélations, en accord avec les études précédentes, ont pu être trouvées au niveau des concentrations en fer. (5) Dans le cas du complexe d'Ilímaussaq exclusivement, une relation a été trouvée entre le rapport Fe3+/FeT et la composition isotopique de l'hydrogène des amphiboles.
Resumo:
In this paper we examine whether access to markets had a significant influence onmigration choices of Spanish internal migrants in the inter-war years. We perform astructural contrast of a New Economic Geography model that focus on the forwardlinkage that links workers location choice with the geography of industrial production,one of the centripetal forces that drive agglomeration in the NEG models. The resultshighlight the presence of this forward linkage in the Spanish economy of the inter-warperiod. That is, we prove the existence of a direct relation between workers¿ localizationdecisions and the market potential of the host regions. In addition, the direct estimationof the values associated with key parameters in the NEG model allows us to simulatethe migratory flows derived from different scenarios of the relative size of regions andthe distances between them. We show that in Spain the power of attraction of theagglomerations grew as they increased in size, but the high elasticity estimated for themigration costs reduced the intensity of the migratory flows. This could help to explainthe apparently low intensity of internal migrations in Spain until its upsurge during the1920s. This also explains the geography of migrations in Spain during this period,which hardly affected the regions furthest from the large industrial agglomerations (i.e.,regions such as Andalusia, Estremadura and Castile-La Mancha) but had an intenseeffect on the provinces nearest to the principal centres of industrial development.
Resumo:
Introduction : La prévalence des maladies stéatosiques non alcooliques du foie augmente de manière exponentielle dans les pays industrialisés. Le développement de ces maladies se traduit par une stéatose hépatique fréquemment associée à une résistance à l'insuline. Cette résistance a pu être expliquée par l'accumulation intra-hépatocytaire de lipides intermédiaires tels que Céramides et Diacylglycérols. Cependant, notre modèle animal de stéatose hépatique, les souris invalidées pour la protéine hépatique « Microsomal Triglyceride Transfert Protein » (Mttp Δ / Δ), ne développent pas de résistance à l'insuline, malgré une augmentation de ces lipides intermédiaires. Ceci suggère la présence d'un autre mécanisme induisant la résistance à l'insuline. Matériels et méthodes : L'analyse Microarray du foie des souris Mttp Δ / Δ a montré une forte up-régulation des gènes « Cell-death Inducing DFFA-like Effector C (cidec) », « Lipid Storage Droplet Protein 5 (lsdp5) » et « Bernardinelli-Seip Congenital Lipodystrophy 2 Homolog (seipin) » dans le foie des souris Mttp Δ / Δ. Ces gènes ont été récemment identifiés comme codant pour des protéines structurelles des gouttelettes lipidiques. Nous avons testé si ces gènes jouaient un rôle important dans le développement de la stéatose hépatique, ainsi que de la résistance à l'insuline. Résultats : Nous avons démontré que ces gènes sont fortement augmentés dans d'autres modèles de souris stéatosées tels que ceux présentant une sur-expression de ChREBP. Dans les hépatocytes murins (AML12 :Alfa Mouse Liver 12), l'invalidation de cidec et/ou seipin semble diminuer la phosphorylation d'AKT après stimulation à l'insuline, suggérant une résistance à l'insuline. Chez l'homme, l'expression de ces gènes est augmentée dans le foie de patients obèses avec stéatose hépatique. De manière intéressante, cette augmentation est atténuée chez les patients avec résistance à l'insuline. Conclusion : Ces données suggèrent que ces protéines des gouttelettes lipidiques augmentent au cours du développement de la stéatose hépatique et que cette augmentation protège contre la résistance à l'insuline.
Resumo:
RESUME DE LA THESE Le but de cette thèse est d'analyser la réforme générale de l'Etat au Cameroun et au Gabon par les institutions de Bretton Woods sur une période de vingt ans (1987-2007). Pour ce faire, mon travail consiste à étudier le rôle majeur joué par les différentes mesures économiques impulsées dans les pays par le Fonds Monétaire International (FMI) et la Banque Mondiale. Il s'agit de voir si les différentes réformes d'ajustement que ces institutions ont imposé au Cameroun et au Gabon ont produit des effets positifs en vue de solution la crise économique qui s'y installait durablement et remettre ces Etats sur le sentier de la croissance et du développement. L'avènement de la crise économique qui sévissait dans les pays au milieu des années 1980 montrait que le modèle développementaliste expérimenté par ces Etats n'avait expérimenté contribué qu'à provoquer la paralysie de l'appareil de production. Les causes profondes résidaient dans l'omniprésence de l'Etat qui privilégiait une logique administrative au dépend de celle de production au point de nuire gravement aux politiques interventionnistes étatiques. A cela, s'ajoutaient d'autres facteurs endogènes et exogènes aux Etats comme la mauvaise gestion couplée à la forte corruption et au clientélisme politique, la contrebande et le dumping, l'effritement du secteur agricole dû au vieillissement des plantations et à la sous-mécanisation, l'explosion démographique, la détérioration des termes de l'échange, le chômage endémique et galopant, etc. En ayant recours aux réformes d'ajustement structurel du FMI et de la Banque Mondiale, les gouvernements camerounais et gabonais entendaient lutter contre les rigidités institutionnelles et les distorsions structurelles qui empêchaient leurs économies de répondre aux signaux du marché et d'accroître l'offre d'une part. Et, d'autre part, les réformes d'ajustement devaient permettre de renforcer la concurrence des produits sur les marchés, accroître les capacités d'adaptation des marchés de facteurs et améliorer l'efficacité et l'efficience du secteur public. Mais avant d'analyser les réformes d'ajustement dans les pays j'ai d'abord présenté dans une première partie, l'évolution sociopolitique et économique des deux pays. Cette partie donne à l'analyse une profondeur historique indispensable et rend compte de l'évolution des politiques sectorielles des Etats marquée par une phase de croissance (1960-1984), puis par une phase de décroissance ou de crise qui commence à partir de 1985. La seconde partie met en évidence les politiques d'ajustement structurelle principalement axées sur la régulation monétaire, financière et budgétaire, la réforme de la fonction publique, la réforme agricole, le désengagement de l'Etat du secteur productif national et les privatisations. Je termine cette seconde partie par un bilan contrasté que je dresse de l'impact de ces réformes dans les économies camerounaises et gabonaises. La troisième partie met en évidence les nouvelles orientations stratégiques des institutions de Bretton Woods en partant de l'agenda politique des réformes au Cameroun et au Gabon. Elle fait intervenir une batterie de réformes portant sur l'initiative Pays Pauvres Très Endettés (PPTE), les Documents de Stratégie pour la Réduction de la Pauvreté (DSRP), l'Evaluation Politique et Institutionnelle du Pays (EPIP) et la «Bonne Gouvernance». Cette thèse s'achève par une conclusion exhaustive mettant en évidence les insuffisances des modèles théoriques et conceptuels fondant l'ajustement structurel et la remise en cause des nouvelles stratégies de lutte contre la pauvreté impulsées par le FMI et la Banque Mondiale dans les pays d'une part. D'autre part, j'observe une faiblesse institutionnelle de l'Etat dans ces pays qui se résume à la mauvaise gouvernance ; à l'absence d'un cadre et des outils appropriés pour la gestion économique et stratégique du développement à long terme ; à l'impunité généralisée et à l'inefficacité des mesures de lutte contre la pauvreté ; à l'absence d'un Etat de droit et à l'autoritarisme des régimes en place.
Resumo:
Il est maintenant accepté par une large part de la communauté scientifique que le climat est en train de changer sous l'influence des gaz à effet de serre émis par les activités humaines. Pour la Suisse, cela correspond à une augmentation des températures et à une diminution probable des précipitations estivales.Etant donné le manque de recul et de données historiques précises, l'influence des changements climatiques sur la biodiversité n'est encore connue que d'études ponctuelles limitées à certaines espèces. Celles-ci nous livrent néanmoins des signaux clairs de changement dans la distribution et la phénologie des espèces, généralement cohérents avec les résultats des modèles prédictifs pour le futur.Globalement, les espèces montrent une tendance à migrer vers les altitudes supérieures. Celles qui occupent aujourd'hui les altitudes les plus élevées vont probablement voir leur domaine se rétrécir. De grands risques d'extinction planent donc sur les espèces alpines, pour lesquelles la Suisse a une responsabilité toute particulière. Parallèlement, la diminution des précipitations estivales va augmenter les problèmes de sécheresses, ce qui pourrait conduire, par exemple, à une réduction des forêts en Valais central et à un assèchement prématuré des lieux de ponte des amphibiens. Inversement, certaines espèces thermophiles de basses altitudes pourraient profiter des nouvelles conditions en accroissant leur domaine de répartition, comme déjà observé chez certains insectes.En plus des changements climatiques, d'autres facteurs menacent indirectement les espèces. La forte fragmentation du territoire limitera la capacité des espèces à coloniser de nouveaux territoires par manque de connexions entre les milieux favorables. Un climat plus chaud permettra une intensification de l'agriculture en montagne, accompagnée des effets néfastes déjà bien connus en plaine, ou pourrait favoriser certaines maladies. De plus, les printemps plus précoces décaleront le développement de certaines espèces, ce qui pourrait fortement modifier les interactions entre espèces et les chaînes trophiques.Les conséquences des changements climatiques sur la biodiversité dépendront aussi des décisions prises au niveau national et international et des mesures prises pour la protection du climat. Afin de limiter les pertes, il est important de mettre en place des corridors favorisant la colonisation de nouvelles aires par les espèces et d'utiliser les synergies possibles entre protection de la biodiversité et lutte contre les changements climatiques. De plus, le monitoring des espèces les plus sensibles aidera à développer, avant qu'il ne soit trop tard, les mesures complémentaires nécessaires à leur conservation.
Resumo:
La diarrhée congénitale de sodium est une maladie génétique très rare. Les enfants touchés par cette maladie présentent une diarrhée aqueuse sévère accompagnée d'une perte fécale de sodium et bicarbonates causant une déshydratation hyponatrémique et une acidose métabolique. Des analyses génétiques ont identifié des mutations du gène Spint2 comme cause de cette maladie. Le gène Spint2 code pour un inhibiteur de sérine protéase transmembranaire exprimé dans divers épithéliums tels que ceux du tube digestif ou des tubules rénaux. Le rôle physiologique de Spint2 n'est pas connu. De plus, aucun partenaire physiologique de Spint2 n'a été identifié et le mécanisme d'inhibition par Spint2 nous est peu connu. Le but de ce projet est donc d'obtenir de plus amples informations concernant la fonction et le rôle de Spint2 dans le contexte de la diarrhée congénitale de sodium, cela afin de mieux comprendre la physiopathologie des diarrhées et peut-être d'identifier de nouvelles cibles thérapeutiques. Un test fonctionnel dans les ovocytes de Xenopus a identifié les sérine protéases transmembranaires CAPI et Tmprssl3 comme potentielles cibles de Spint2 dans la mesure où ces deux protéases n'étaient plus bloquées par le mutant de Spint2 Y163C qui est associé avec la diarrhée congénitale de sodium. Des expériences fonctionnelles et biochimiques plus poussées suggèrent que l'inhibition de Tmprssl3 par Spint2 est le résultat d'une interaction complexe entre ces deux protéines. Les effets des sérine protéases transmembranaires sur l'échangeur Na+-H+ NHE3, qui pourrait être impliqué dans la pathogenèse de la diarrhée congénitale de sodium ont aussi été testés. Un clivage spécifique de NHE3 par la sérine protéase transmembranaire Tmprss3 a été observé lors d'expériences biochimiques. Malheureusement, la pertinence physiologique de ces résultats n'a pas pu être évaluée in vivo, étant donné que le modèle de souris knockout conditionnel de Spint2 que nous avons créé ne montrait une réduction de l'expression de Spint2 que de 50% et aucun phénotype. En résumé, ce travail met en évidence deux nouveaux partenaires possibles de Spint2, ainsi qu'une potentielle régulation de NHE3 par des sérine protéases transmembranaires. Des expériences supplémentaires faites dans des modèles animaux et lignées cellulaires sont requises pour évaluer la pertinence physiologique de ces données et pour obtenir de plus amples informations au sujet de Spint2 et de la diarrhée congénitale de sodium. - The congenital sodium diarrhea is a very rare genetic disease. Children affected by this condition suffer from a severe diarrhea characterized by watery stools with a high fecal loss of sodium and bicarbonates, resulting in hyponatremic dehydration and metabolic acidosis. Genetic analyses have identified mutations in the Spint2 gene as a cause of this disease. The spint2 gene encodes a transmembrane serine protease inhibitor expressed in various epithelial tissues including the gastro-intestinal tract and renal tubules. The physiological role of Spint2 is completely unknown. In addition, physiological partners of Spint2 are still to be identified and the mechanism of inhibition by Spint2 remains elusive. Therefore, the aim of this project was to get insights about the function and the role of Spint2 in the context of the congenital sodium diarrhea in order to better understand the pathophysiology of diarrheas and maybe identify new therapeutic targets. A functional assay in Xenopus oocytes identified the membrane-bound serine proteases CAPI and Tmprssl3 as potential targets of Spint2 because both proteases were no longer inhibited by the mutant Spint2 Y163C that has been associated with the congenital diarrhea. Further functional and biochemical experiments suggested that the inhibition of Tmprssl3 by Spint2 occurs though a complex interaction between both proteins. The effects of membrane-bound serine proteases on the Na+-H+ exchanger NHE3, which has been proposed to be involved in the pathogenesis of the congenital sodium diarrhea, were also tested. A specific cleavage of NHE3 by the membrane-bound serine protease Tmprss3 was observed in biochemical experiments. Unfortunately, the physiological relevance of these results could not be assessed in vivo since the conditional Spint2 knockout mouse model that we generated showed a reduction in Spint2 expression of only 50% and displayed no phenotype. Briefly, this work provides two new potential partners of Spint2 and emphasizes a putative regulation of NHE3 by membrane-bound serine proteases. Further work done in animal models and cell lines is required to assess the physiological relevance of these results and to obtain additional data about Spint2 and the congenital diarrhea.
Resumo:
Magmas of the arc-tholeiitic and calc-alkaline differentiation suites contribute substantially to the formation of continental crust in subduction zones. Different geochemical-petrological models have been put forward to achieve evolved magmas forming large volumes of tonalitic to granitic plutons, building an important part of the continental crust. Primary magmas produced in the mantle wedge overlying the subducted slab migrate through the mantle and the crust. During the transfer, magma can accumulate in intermediate reservoirs at different levels where crystallization leads to differentiation and the heat transfer from the magma, together with gained heat from solidification, lead to partial melting of the crust. Partial melts can be assimilated and mix with more primitive magma. Moreover, already formed crystal cumulates or crystal mushes can be recycled and reactivated to transfer to higher crustal levels. Magma transport in the crust involves fow through fractures within a brittle elastic rock. The solidified magma filled crack, a dyke, can crosscut previously formed geological structures and thus serves as a relative or absolute time marker. The study area is situated in the Adamello massif. The Adamello massif is a composite of plutons that were emplaced between 42 and 29 million years. A later dyke swarm intruded into the southern part of the Adamello Batholith. A fractionation model covering dyke compositions from picrobasalts to dacites results in the cummulative crystallization of 17% olivine, 2% Cr-rich spinel, 18% clinopyroxene, 41% amphibole, 4% plagioclase and 0.1% magnetite to achieve an andesitic composition out of a hydrous primitive picrobasalt. These rocks show a similar geochemical evolution as experimental data simulating fractional crystallization and associated magma differentiation at lower crustal depth (7-10 kbar). The peraluminous, corundum normative composition is one characteristic of more evolved dacitic magmas, which has been explained in a long lasting debate with two di_erent models. Melting of mafic crust or politic material provides one model, whereas an alternative is fractionation from primary mantle derived melts. Amphibole occurring in basaltic-andesitic and andesitic dyke rocks as fractionating cumulate phase extracted from lower crustal depth (6-7.5 kbar) is driving the magmas to peraluminous, corundum normative compositions, which are represented by tonalites forming most of the Adamello Batholith. Most primitive picrobasaltic dykes have a slightly steepened chondrite normalized rare earth elements (REE) pattern and the increased enrichment of light-REE (LREE) for andesites and dacites can be explained by the fractional crystallization model originating from a picrobasalt, taking the changing fractionating phase assemblage and temperature into account. The injection of hot basaltic magma (~1050°C) in a closely spaced dyke swarm increases the surface of the contact to the mainly tonalitic wallrock. Such a setting induces partial melting of the wall rock and selective assimilation. Partial melting of the tonalite host is further expressed through intrusion breccias from basaltic dykes. Heat conduction models with instantaneous magma injection for such a dyke swarm geometry can explain features of partial melting observed in the field. Geochemical data of minerals and bulk rock further underline the selective or bulk assimilation of the tonalite host rock at upper crustal levels (~2-3 kbar), in particular with regard to light ion lithophile elements (LILE) such as Sr, Ba and Rb. Primitive picrobasalts carry an immiscible felsic assimilant as enclaves that bring along refractory rutile and zircon with textures typically found in oceanic plagiogranites or high pressure/low-temperature metamorphic rocks in general. U-Pb data implies a lower Cretaceous age for zircon not yet described as assimilant in Eocene to Oligocene magmatic rocks of the Central Southern Alps. The distribution of post-plutonic dykes in large batholiths such as the Adamello is one of the key features for understanding the regional stress field during the post-batholith emplacement cooling history. The emplacement of the regional dyke swarm covering the southern part of the Adamello massif was associated with consistent left lateral strike-slip movement along magma dilatation planes, leading to en echelon segmentation of dykes. Through the dilation by magma of pre-existing weaknesses and cracks in an otherwise uniform host rock, the dyke propagation and according orientation in the horizontal plane adjusted continuously perpendicular to least compressive remote stress σ3, resulting in an inferred rotation of the remote principal stress field. Les magmas issus des zones de subduction contribuent substantiellement à la formation de la croûte continentale. Les plutons tonalitiques et granitiques représentent, en effet, une partie importante de la croûte continentale. Des magmas primaires produits dans le 'mantle wedge ', partie du manteau se trouvant au-dessus de la plaque plongeante dans des zones de subduction, migrent à travers le manteau puis la croûte. Pendant ce transfert, le magma peut s'accumuler dans des réservoirs intermédiaires à différentes profondeurs. Le stockage de magma dans ces réservoirs engendre, d'une part, la différentiation des magmas par cristallisation fractionnée et, d'autre part, une fusion partielle la croûte continentale préexistante associée au transfert de la chaleur des magmas vers l'encaissant. Ces liquides magmatiques issus de la croûte peuvent, ensuite, se mélanger avec des magmas primaires. Le transport du magma dans la croûte implique notamment un flux de magma à travers différentes fractures recoupant les roches encaissantes élastiques. Au cours de ce processus de migration, des cumulats de cristaux ou des agrégats de cristaux encore non-solidifiés, peuvent être recyclés et réactivés pour être transportés à des niveaux supérieures de la croûte. Le terrain d'étude est situé dans le massif d'Adamello. Celui-ci est composé de plusieurs plutons mis en place entre 42 et 29 millions d'années. Dans une phase tardive de l'activité magmatique liée à ce batholite, une série de filons de composition variable allant de picrobasalte à des compositions dacitiques s'est mise en place la partie sud du massif. Deux modèles sont proposés dans la littérature, pour expliquer la formation des magmas dacitiques caractérisés par des compositions peralumineux (i.e. à corindon normatif). Le premier modèle propose que ces magmas soient issus de la fusion de matériel mafique et pélitique présent dans la partie inférieur de la croûte, alors que le deuxième modèle suggère une évolution par cristallisation fractionnée à partir de liquides primaires issus du manteau. Un modèle de cristallisation fractionnée a pu être développé pour expliquer l'évolution des filons de l'Adamello. Ce modèle explique la formation des filons dacitiques par la cristallisation fractionnée de 17% olivine, 2% spinelle riche en Cr, 18% clinopyroxène, 41% amphibole, 4% plagioclase et 0.1% magnetite à partir de liquide de compositions picrobasaltiques. Ce modèle prend en considération les contraintes pétrologiques déduites de l'observation des différents filons ainsi que du champ de stabilité des différentes phases en fonction de la température. Ces roches montrent une évolution géochimique similaire aux données expérimentales simulant la cristallisation fractionnée de magmas évoluant à des niveaux inférieurs de la croûte (7-10 kbar). Le modèle montre, en particulier, le rôle prépondérant de l'amphibole, une phase qui contrôle en particulier le caractère peralumineux des magmas différentiés ainsi que leurs compositions en éléments en traces. Des phénomènes de fusion partielle de l'encaissant tonalitique lors de la mise en place de _lons mafiques sont observée sur le terrain. L'injection du magma basaltique chaud (~1050°C) sous forme de filons rapprochés augmente la surface du contact avec l'encaissante tonalitique. Une telle situation produit la fusion partielle des roches encaissantes nécessaire à l'incorporation d'enclaves mafiques observés au sein des tonalites. Pour comprendre les conditions nécessaires pour la fusion partielle des roches encaissantes, des modèles de conduction thermique pour une injection simultanée d'une série de filons ont été développées. Des données géochimiques sur les minéraux et sur les roches totales soulignent qu'au niveau supérieur de la croûte, l'assimilation sélective ou totale de l'encaissante tonalitique modifie la composition du liquide primaire pour les éléments lithophiles tel que le Sr, Ba et Rb. Un autre aspect important concernant la pétrologie des filons de l'Adamello est la présence d'enclaves felsiques dans les filons les plus primitifs. Ces enclaves montrent, en particulier, des textures proches de celles rencontrées dans des plagiogranites océaniques ou dans des roches métamorphiques de haute pression/basse température. Ces enclaves contiennent du zircon et du rutile. La datations de ces zircons à l'aide du géochronomètre U-Pb indique un âge Crétacé inférieur. Cet âge est important, car aucune roche de cet âge n'a été considérée comme un assimilant potentiel pour des roches magmatiques d'âge Eocène à Oligocène dans les Alpes Sud Centrales. La réparation spatiale des filons post-plutoniques dans des grands batholites tel que l'Adamello, est une caractéristique clé pour la compréhension des champs de contraintes lors du refroidissement du batholite. L'orientation des filons va, en particulier, indiqué la contrainte minimal au sein des roches encaissante. La mise en place de la série de filon recoupant la partie Sud du massif de l'Adamello est associée à un décrochement senestre, un décrochement que l'on peut lié aux contraintes tectoniques régionales auxquelles s'ajoutent l'effet de la dilatation produite par la mise en place du batholite lui-même. Ce décrochement senestre produit une segmentation en échelon des filons.
Resumo:
RESUME DESTINE AUX NON SCIENTIFIQUESLe diabète est une maladie associée à un excès de glucose (sucre) dans le sang. Le taux de glucose sanguin augmente lorsque l'action d'une hormone, l'insuline, responsable du transport du glucose du sang vers les tissus de l'organisme diminue, ou lorsque les quantités d'insuline à disposition sont inadéquates.L'une des causes communes entre les deux grands types de diabète connus, le type 1 et le type 2, est la disparition des cellules beta du pancréas, spécialisées dans la sécrétion d'insuline, par mort cellulaire programmée aussi appelée apoptose. Alors que dans le diabète de type 1, la destruction des cellules beta est causée par notre propre système immunitaire, dans le diabète de type 2, la mort de ces cellules, est principalement causée par des concentrations élevées de graisses saturés ou de molécules impliquées dans l'inflammation que l'on rencontre en quantités augmentées chez les personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, expliquant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. L'activation de caspase 3, une protéine clé contrôlant la mort cellulaire, était connue pour systématiquement mener à la mort cellulaire programmée. Ces dernières années, notre laboratoire a décrit des mécanismes de survie qui sont activés par caspase 3 et qui expliquent sans doute pourquoi son activation ne mène pas systématiquement à la mort cellulaire. Lorsqu'elle est faiblement activée, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Durant ma thèse, j'ai été impliqué dans divers projets destinés à mieux comprendre comment le fragment Ν protégeait les cellules contre l'apoptose et à savoir s'il pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. C'est dans ce but que nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes à la mort induite par des composés connus pour induire le diabète, comme certaines molécules induisant l'inflammation ou les graisses saturées. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète expérimental que ce soit par l'injection d'une drogue induisant l'apoptose des cellules beta, que ce soit dans un fond génétique caractérisé par une attaque spontanée des cellules beta par le système immunitaire ou dans le contexte d'un diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant une voie protectrice bien connue impliquant successivement les protéines Ras, PI3K et Akt ainsi qu'en bloquant la capacité d'Akt d'activer le facteur NFKB, connu pour être délétère pour la survie de la cellule beta. La capacité qu'a le fragment Ν d'activer Akt tout en prévenant l'activation de NFKB par Akt est par conséquent particulièrement intéressante dans l'intégration des signaux régulant la mort cellulaire dans le contexte de la survenue d'un diabète.La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment N.2 SUMMARYDiabetes mellitus is an illness associated with excess blood glucose. Blood glucose levels raise when the action of insulin decreases or when insulin is provided in inappropriate amounts. In type 1 diabetes (T1D) as well as in type 2 diabetes (T2D), the insulin secreting beta cells in the pancreas undergo controlled cell death also called apoptosis. Whereas in T1D, beta cells are killed by the immune system, in T2D, they are killed by several factors, among which are increased blood glucose levels, increased levels of harmful lipids or pro-inflammatory cytokines that are released by the dysfunctional fat tissue of obese people. Given the epidemic increase in the number of obese people throughout the world, the number of diabetic people (a majority of which are type 2 diabetes) is estimated to rise from 171 million affected people in the year 2000 to 366 million in 2030 explaining the absolute requirement for new therapies to fight the disease.Apoptosis is a very complex process whose deregulation leads to a wide range of diseases going from cancer to diabetes. Caspase 3 although known as a key molecule controlling apoptosis, has been shown to have various other functions. In the past few years, our laboratory has described a survival mechanism, that takes place at low caspase activity and that might explain how cells that activate their caspases for reasons other than apoptosis survive. In such conditions, caspase 3 cleaves another protein called RasGAP into two shorter proteins, one of which, called fragment N, protects cells from apoptosis.We decided to check whether fragment Ν could be used as a therapeutical tool in the context of diabetes inducing conditions. We thus derived a transgenic mouse line, called RIP-N, in which the expression of fragment Ν is restricted to beta cells. As expected, the beta cells of these mice were more resistant ex-vivo to cell death induced by diabetes inducing factors. We then showed that the RIP-N transgenic mice were resistant to streptozotocin induced diabetes, a mouse model mimicking type 1 diabetes, which correlated to fewer number of apoptotic beta cells in the pancreas of the transgenic mice compared to their controls. The RIP-N transgene also delayed overt diabetes development in the NOD background, a mouse model of autoimmune type 1 diabetes, and delayed the occurrence of obesity induced hyperglycemia in a mouse model of type 2-like diabetes. Interestingly, fragment Ν was mediating its protection by activating the protective Akt kinase, and by blocking the detrimental NFKB factor. Our future ability to activate the protective signals elicited by fragment Ν from the outside of cells or to derive cell permeable peptides bearing the protective properties of fragment Ν might condition our ability to use this protein as a therapeutic tool.3 RESUMELe diabète est une maladie associée à un excès de glucose plasmatique. La glycémie augmente lorsque l'action de l'insuline diminue ou lorsque les quantités d'insuline à disposition sont inadéquates. Dans le diabète de type 1 (D1) comme dans le diabète de type 2 (D2), les cellules beta du pancréas subissent la mort cellulaire programmée aussi appelée apoptose. Alors que dans le D1 les cellules beta sont tuées par le système immunitaire, dans le D2 elles sont tuées par divers facteurs parmi lesquels on trouve des concentrations élevées de glucose, d'acides gras saturés ou de cytokines pro-inflammatoires qui sont sécrétées en concentrations augmentées par le tissu adipeux dysfonctionnel des personnes obèses. Etant donné l'augmentation épidémique du nombre de personnes obèses de par le monde, on estime que le nombre de personnes diabétiques (dont une majorité sont des diabétiques de type 2), va passer de 171 million en l'an 2000, à 366 million en l'an 2030, justifiant la nécessité absolue de mettre au point de nouvelles stratégies thérapeutique pour combattre cette maladie.L'apoptose est un processus complexe dont la dérégulation induit de nombreuses affections allant du cancer jusqu'au diabète. Caspase 3, bien que connue comme étant une protéine clé contrôlant l'apoptose a bien d'autres fonctions démontrées. Ces dernières années, notre laboratoire a décrit un mécanisme de survie qui est activé lorsque caspase 3 est faiblement activée et qui explique probablement comment des cellules qui ont activé leurs caspases pour une autre raison que l'apoptose peuvent survivre. Dans ces conditions, caspase 3 clive une autre protéine appelée RasGAP en deux protéines plus courtes dont l'une, appelée le fragment Ν a la particularité de protéger les cellules contre l'apoptose.Nous avons donc décidé de vérifier si le fragment Ν pouvait être utilisé comme outil thérapeutique dans les conditions de survenue d'un diabète expérimental. Pour se faire, nous avons créé une souris transgénique, appelée RIP-N, exprimant le fragment Ν spécifiquement dans les cellules beta. Comme attendu, les cellules beta de ces souris étaient plus résistantes ex-vivo à la mort induite par des facteurs pro-diabétogènes. Nous avons ensuite pu montrer que les souris RIP-N étaient plus résistantes à la survenue d'un diabète induit par la streptozotocine, un drogue mimant la survenue d'un D1 et que ceci était corrélée à une diminution du nombre de cellules en apoptose dans le pancréas des souris transgéniques comparé à leurs contrôles. L'expression du transgène a aussi eu pour effet de retarder la survenue d'un diabète franc dans le fond génétique NOD, un modèle génétique de diabète de type 1 auto-immun, ainsi que de retarder la survenue d'une hyperglycémie dans un modèle murin de diabète de type 2 induit par l'obésité. Dans plusieurs des modèles animaux étudiés, nous avons pu montrer que le fragment Ν protégeait les cellules en activant la kinase protectrice Akt ainsi qu'en bloquant le facteur délétère NFKB. La perspective d'utiliser le fragment Ν comme outil thérapeutique dépendra de notre capacité à activer les signaux protecteurs induits par le fragment Ν depuis l'extérieur de la cellule ou de dériver des peptides perméables aux cellules possédant les propriétés du fragment
Resumo:
Résumé : Le glioblastome (GBM, WHO grade IV) est la tumeur cérébrale primaire la plus fréquente et la plus maligne, son pronostic reste très réservé et sa réponse aux différents traitements limitée. Récemment, une étude clinique randomisée (EORTC 26981/NCIC CE.3) a démontré que le traitement combiné de temozolomide et radiothérapie (RT/TMZ) est le meilleur dans les cas de GBM nouvellement diagnostiqués [1]. Cependant, seul un sous-groupe de patients bénéficie du traitement RT/TMZ et même parmi eux, leur survie reste très limitée. Pour tenter de mieux comprendre les réponses au traitement RT/TMZ, la biologie du GBM, identifier d'autres facteurs de résistance et découvrir de nouvelles cibles aux traitements, nous avons conduit une analyse moléculaire étendue à 73 patients inclus dans cette étude clinique. Nous avons complété les résultats moléculaires déjà obtenus par un profil génomique du nombre de copies par Array Comparative Genomic Hybridization. Afin d'atteindre nos objectifs, nous avons analysé en parallèle les données cliniques des patients et leurs profils moléculaires. Nos résultats confirment des analyses connues dans le domaine des aberrations du nombre de copies (CNA) et de profils du glioblastome. Nous avons observé une bonne corrélation entre le CNA génomique et l'expression de l'ARN messager dans le glioblastome et identifié un nouveau modèle de CNA du chromosome 7 pouvant présenter un intérêt clinique. Nous avons aussi observé par l'analyse du CNA que moins de 10% des glioblastomes conservent leurs mécanismes de suppression de tumeurs p53 et Rb1. Nous avons aussi observé que l'amplification du CDK4 peut constituer un facteur supplémentaire de résistance au traitement RT/TMZ, cette observation nécessite confirmation sur un plus grand nombre d'analyses. Nous avons montré que dans notre analyse des profils moléculaires et cliniques, il n'est pas possible de différencier le GBM à composante oligodendrogliale (GBM-O) du glioblastome. En superposant les profils moléculaires et les modèles expérimentaux in vitro, nous avons identifié WIF-1 comme un gène suppresseur de tumeur probable et une activation du signal WNT dans la pathologie du glioblastome. Ces observations pourraient servir à une meilleure compréhension de cette maladie dans le futur. Abstract : Glioblastoma, (GBM, WHO grade IV) is the most malignant and most frequent primary brain tumor with a very poor prognosis and response to therapy. A recent randomized clinical trial (EORTC26981/NCIC CE.3) established RT/TMZ as the 1St effective chemo-radiation therapy in newly diagnosed GBM [1]. However only a genetic subgroup of patients benefit from RT/TMZ and even in this subgroup overall survival remains very dismal. To explain the observed response to RT/TMZ, have a better understanding of GBM biology, identify other resistance factors and discover new drugable targets a comprehensive molecular analysis was performed in 73 of these GBM trial cohort. We complemented the available molecular data with a genomic copy number profiling by Array Comparative Genomic Hybridization. We proceeded to align the molecular profiles and the Clinical data, to meet our project objectives. Our data confirm known GBM Copy Number Aberrations and profiles. We observed a good correlation of genomic CN and mRNA expression in GBM, and identified new interesting CNA pattern for chromosome 7 with a potential clinical value. We also observed that by copy number aberration data alone, less than 10% of GBM have an intact p53 and Rb1 tumor .suppressor pathways. We equally observed that CDK4 amplification might constitute an additional RT/TMZ resistant factor, an observation that will need confirmation in a larger data set. We show that the molecular and clinical profiles in our data set, does not support the identification of GBM-O as a new entity in GBM. By combining the molecular profiles and in vitro model experiments we identify WIF1 as a potential GBM TSG and an activated WNT signaling as a pathologic event in GBM worth incorporation in attempts to better understand and impact outcome in this disease.
Resumo:
Introduction Le rythmes circadiens influencent différents paramètres de la physiologie et de la physiopathologie cardiovasculaire. Récemment, une relation entre la taille d'un infarctus et l'heure du jour à laquelle il se produit a été suggérée dans des modèles expérimentaux d'infarctus du myocarde. Le but de cette étude a été de déterminer si les rythmes circadiens pouvaient influencer la gravité d'un infarctus en terme de taille et de mortalité chez les patients hospitalisés pour un infarctus du myocarde avec sus-décalage du segment ST (STEMI) ayant bénéficié d'une intervention coronarienne percutanée primaire (ICPP). Méthode Chez 353 patients consécutifs admis avec un STEMI et traités par ICPP, l'heure à la survenue des symptômes, le pic de créatine kinase (reflet de la taille d'un infarctus) et le suivi à 30 jours ont été collectés. Les patients ont été répartis en 4 groupes en fonction de l'heure de survenue de leurs symptômes (00 :00 - 05h59, 06:00 - 11 59 12 00-17h59 et 18h00-23h59). Résultats Aucune différence statistiquement significative n'a été retrouvée entre les différents groupes en ce qui concerne les caractéristiques des patients ou de leur prise en charge. Après analyse multivariée, nous avons mis en évidence une différence statistiquement significative entre les pics de créatine kinase chez les patients avec survenue des symptômes entre 00 :00 et 05:59, qui étaient plus élevés que les pics de créatine kinase chez les patients avec survenue des symptômes à tout autre moment de la journée (augmentation moyenne de 38,4%, ρ <0.05). A 30 jours, la mortalité des patients avec survenue des symptômes entre 00 :00 et 05:59 était également significativement plus élevé que celle des patients avec survenue à tout autre moment de la journée (p <0.05). Conclusion Notre étude démontre une corrélation indépendante entre la taille d'un infarctus STEMI traité par ICPP et le moment de la journée où les symptômes apparaissent. Ces résultats suggèrent que ce moment devrait être un paramètre important à prendre en compte pour évaluer le pronostic des patients.