54 resultados para theoretical methods

em Université de Lausanne, Switzerland


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Summary The specific CD8+ T cell immune response against tumors relies on the recognition by the T cell receptor (TCR) on cytotoxic T lymphocytes (CTL) of antigenic peptides bound to the class I major histocompatibility complex (MHC) molecule. Such tumor associated antigenic peptides are the focus of tumor immunotherapy with peptide vaccines. The strategy for obtaining an improved immune response often involves the design of modified tumor associated antigenic peptides. Such modifications aim at creating higher affinity and/or degradation resistant peptides and require precise structures of the peptide-MHC class I complex. In addition, the modified peptide must be cross-recognized by CTLs specific for the parental peptide, i.e. preserve the structure of the epitope. Detailed structural information on the modified peptide in complex with MHC is necessary for such predictions. In this thesis, the main focus is the development of theoretical in silico methods for prediction of both structure and cross-reactivity of peptide-MHC class I complexes. Applications of these methods in the context of immunotherapy are also presented. First, a theoretical method for structure prediction of peptide-MHC class I complexes is developed and validated. The approach is based on a molecular dynamics protocol to sample the conformational space of the peptide in its MHC environment. The sampled conformers are evaluated using conformational free energy calculations. The method, which is evaluated for its ability to reproduce 41 X-ray crystallographic structures of different peptide-MHC class I complexes, shows an overall prediction success of 83%. Importantly, in the clinically highly relevant subset of peptide-HLAA*0201 complexes, the prediction success is 100%. Based on these structure predictions, a theoretical approach for prediction of cross-reactivity is developed and validated. This method involves the generation of quantitative structure-activity relationships using three-dimensional molecular descriptors and a genetic neural network. The generated relationships are highly predictive as proved by high cross-validated correlation coefficients (0.78-0.79). Together, the here developed theoretical methods open the door for efficient rational design of improved peptides to be used in immunotherapy. Résumé La réponse immunitaire spécifique contre des tumeurs dépend de la reconnaissance par les récepteurs des cellules T CD8+ de peptides antigéniques présentés par les complexes majeurs d'histocompatibilité (CMH) de classe I. Ces peptides sont utilisés comme cible dans l'immunothérapie par vaccins peptidiques. Afin d'augmenter la réponse immunitaire, les peptides sont modifiés de façon à améliorer l'affinité et/ou la résistance à la dégradation. Ceci nécessite de connaître la structure tridimensionnelle des complexes peptide-CMH. De plus, les peptides modifiés doivent être reconnus par des cellules T spécifiques du peptide natif. La structure de l'épitope doit donc être préservée et des structures détaillées des complexes peptide-CMH sont nécessaires. Dans cette thèse, le thème central est le développement des méthodes computationnelles de prédiction des structures des complexes peptide-CMH classe I et de la reconnaissance croisée. Des applications de ces méthodes de prédiction à l'immunothérapie sont également présentées. Premièrement, une méthode théorique de prédiction des structures des complexes peptide-CMH classe I est développée et validée. Cette méthode est basée sur un échantillonnage de l'espace conformationnel du peptide dans le contexte du récepteur CMH classe I par dynamique moléculaire. Les conformations sont évaluées par leurs énergies libres conformationnelles. La méthode est validée par sa capacité à reproduire 41 structures des complexes peptide-CMH classe I obtenues par cristallographie aux rayons X. Le succès prédictif général est de 83%. Pour le sous-groupe HLA-A*0201 de complexes de grande importance pour l'immunothérapie, ce succès est de 100%. Deuxièmement, à partir de ces structures prédites in silico, une méthode théorique de prédiction de la reconnaissance croisée est développée et validée. Celle-ci consiste à générer des relations structure-activité quantitatives en utilisant des descripteurs moléculaires tridimensionnels et un réseau de neurones couplé à un algorithme génétique. Les relations générées montrent une capacité de prédiction remarquable avec des valeurs de coefficients de corrélation de validation croisée élevées (0.78-0.79). Les méthodes théoriques développées dans le cadre de cette thèse ouvrent la voie du design de vaccins peptidiques améliorés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This article uses a mixed methods design to investigate the effects of social influence on family formation in a sample of eastern and western German young adults at an early stage of their family formation. Theoretical propositions on the importance of informal interaction for fertility and family behavior are still rarely supported by systematic empirical evidence. Major problems are the correct identification of salient relationships and the comparability of social networks across population subgroups. This article addresses the two issues through a combination of qualitative and quantitative data collection and analysis. In-depth interviewing, network charts, and network grids are used to map individual personal relationships and their influence on family formation decisions. In addition, an analysis of friendship dyads is provided.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper investigates the use of ensemble of predictors in order to improve the performance of spatial prediction methods. Support vector regression (SVR), a popular method from the field of statistical machine learning, is used. Several instances of SVR are combined using different data sampling schemes (bagging and boosting). Bagging shows good performance, and proves to be more computationally efficient than training a single SVR model while reducing error. Boosting, however, does not improve results on this specific problem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rare diseases are typically chronic medical conditions of genetic etiology characterized by low prevalence and high complexity. Patients living with rare diseases face numerous physical, psychosocial and economic challenges that place them in the realm of health disparities. Congenital hypogonadotropic hypogonadism (CHH) is a rare endocrine disorder characterized by absent puberty and infertility. Little is known about the psychosocial impact of CHH on patients or their adherence to available treatments. This project aimed to examine the relationship between illness perceptions, depressive symptoms and adherence to treatment in men with CHH using the nursing-sensitive Health Promotion Model (HPM). A community based participatory research (CBPR) framework was employed as a model for empowering patients and overcoming health inequities. The study design used a sequential, explanatory mixed-methods approach. To reach dispersed CHH men, we used web-based recruitment and data collection (online survey). Subsequently, three patient focus groups were conducted to provide explanatory insights into the online survey (i.e. barriers to adherence, challenges of CHH, and coping/support) The online survey (n=101) revealed that CHH men struggle with adherence and often have long gaps in care (40% >1 year). They experience negative psychosocial consequences because of CHH and exhibit significantly increased rates of depression (p<0.001). Focus group participants (n=26) identified healthcare system, interpersonal, and personal factors as barriers to adherence. Further, CHH impacts quality of life and impedes psychosexual development in these men. The CHH men are active internet users who rely on the web forcrowdsourcing solutions and peer-to-peer support. Moreover, they are receptive to web-based interventions to address unmet health needs. This thesis contributes to nursing knowledge in several ways. First, it demonstrates the utility of the HPM as a valuable theoretical construct for understanding medication adherence and for assessing rare disease patients. Second, these data identify a range of unmet health needs that are targets for patient-centered interventions. Third, leveraging technology (high-tech) effectively extended the reach of nursing care while the CBPR approach and focus groups (high-touch) served as concurrent nursing interventions facilitating patient empowerment in overcoming health disparities. Last, these findings hold promise for developing e-health interventions to bridge identified shortfalls in care and activating patients for enhanced self- care and wellness -- Les maladies rares sont généralement de maladies chroniques d'étiologie génétique caractérisées par une faible prévalence et une haute complexité de traitement. Les patients atteints de maladies rares sont confrontés à de nombreux défis physiques, psychosociaux et économiques qui les placent dans une posture de disparité et d'inégalités en santé. L'hypogonadisme hypogonadotrope congénital (CHH) est un trouble endocrinien rare caractérisé par l'absence de puberté et l'infertilité. On sait peu de choses sur l'impact psychosocial du CHH sur les patients ou leur adhésion aux traitements disponibles. Ce projet vise à examiner la relation entre la perception de la maladie, les symptômes dépressifs et l'observance du traitement chez les hommes souffrant de CHH. Cette étude est modélisée à l'aide du modèle de la Promotion de la santé de Pender (HPM). Le cadre de l'approche communautaire de recherche participative (CBPR) a aussi été utilisé. La conception de l'étude a reposé sur une approche mixte séquentielle. Pour atteindre les hommes souffrant de CHH, un recrutement et une collecte de données ont été organisées électroniquement. Par la suite, trois groupes de discussion ont été menées avec des patients experts impliqués au sein d'organisations reliés aux maladies rares. Ils ont été invités à discuter certains éléments additionnels dont, les obstacles à l'adhésion au traitement, les défis généraux de vivre avec un CHH, et l'adaptation à la maladie en tenant compte du soutien disponible. Le sondage en ligne (n = 101) a révélé que les hommes souffrant de CHH ont souvent de longues périodes en rupture de soins (40% > 1 an). Ils vivent des conséquences psychosociales négatives en raison du CHH et présentent une augmentation significative des taux de dépression (p <0,001). Les participants aux groupes de discussion (n = 26) identifient dans l'ordre, les systèmes de soins de santé, les relations interpersonnelles, et des facteurs personnels comme des obstacles à l'adhésion. En outre, selon les participants, le CHH impacte négativement sur leur qualité de vie générale et entrave leur développement psychosexuel. Les hommes souffrant de CHH se considèrent être des utilisateurs actifs d'internet et comptent sur le web pour trouver des solutions pour trouver des ressources et y recherchent le soutien de leurs pairs (peer-to-peer support). En outre, ils se disent réceptifs à des interventions qui sont basées sur le web pour répondre aux besoins de santé non satisfaits. Cette thèse contribue à la connaissance des soins infirmiers de plusieurs façons. Tout d'abord, elle démontre l'utilité de la HPM comme une construction théorique utile pour comprendre l'adhésion aux traitements et pour l'évaluation des éléments de promotion de santé qui concernent les patients atteints de maladies rares. Deuxièmement, ces données identifient une gamme de besoins de santé non satisfaits qui sont des cibles pour des interventions infirmières centrées sur le patient. Troisièmement, méthodologiquement parlant, cette étude démontre que les méthodes mixtes sont appropriées aux études en soins infirmiers car elles allient les nouvelles technologies qui peuvent effectivement étendre la portée des soins infirmiers (« high-tech »), et l'approche CBPR par des groupes de discussion (« high-touch ») qui ont facilité la compréhension des difficultés que doivent surmonter les hommes souffrant de CHH pour diminuer les disparités en santé et augmenter leur responsabilisation dans la gestion de la maladie rare. Enfin, ces résultats sont prometteurs pour développer des interventions e-santé susceptibles de combler les lacunes dans les soins et l'autonomisation de patients pour une meilleure emprise sur les auto-soins et le bien-être.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The mouse has emerged as an animal model for many diseases. At IRO, we have used this animal to understand the development of many eye diseases and treatment of some of them. Precise evaluation of vision is a prerequisite for both these approaches. In this unit we describe three ways to measure vision: testing the optokinetic response, and evaluating the fundus by direct observation and by fluorescent angiography.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Captan and folpet are fungicides largely used in agriculture. They have similar chemical structures, except that folpet has an aromatic ring unlike captan. Their half-lives in blood are very short, given that they are readily broken down to tetrahydrophthalimide (THPI) and phthalimide (PI), respectively. Few authors measured these biomarkers in plasma or urine, and analysis was conducted either by gas chromatography coupled to mass spectrometry or liquid chromatography with UV detection. The objective of this study was thus to develop simple, sensitive and specific liquid chromatography-atmospheric pressure chemical ionization-tandem mass spectrometry (LC/APCI-MS/MS) methods to quantify both THPI and PI in human plasma and urine. Briefly, deuterated THPI was added as an internal standard and purification was performed by solid-phase extraction followed by LC/APCI-MS/MS analysis in negative ion mode for both compounds. Validation of the methods was conducted using spiked blank plasma and urine samples at concentrations ranging from 1 to 250 μg/L and 1 to 50 μg/L, respectively, along with samples of volunteers and workers exposed to captan or folpet. The methods showed a good linearity (R (2) > 0.99), recovery (on average 90% for THPI and 75% for PI), intra- and inter-day precision (RSD, <15%) and accuracy (<20%), and stability. The limit of detection was 0.58 μg/L in urine and 1.47 μg/L in plasma for THPI and 1.14 and 2.17 μg/L, respectively, for PI. The described methods proved to be accurate and suitable to determine the toxicokinetics of both metabolites in human plasma and urine.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Methicillin resistant Staphylococcus aureus (MRSA) bacteria have emerged in the early 1980's in numerous health care institutions around the world. The main transmission mechanism within hospitals and healthcare facilities is through the hands of health care workers. Resistant to several antibiotics, the MRSA is one of the most feared pathogens in the hospital setting since it is very difficult to eradicate with the standard treatments. There are still a limited number of anti-MRSA antibiotics but the first cases of resistance to these compounds have already been reported and their frequency is likely to increase in the coming years. Every year, the MRSA infections result in major human and financial costs, due to the high associated mortality and expenses related to the required care. Measures towards a faster detection of resistant bacteria and establishment of appropriate antibiotic treatment parameters are fundamental. Also as part as infection prevention, diminution of bacteria present on the commonly touched surfaces could also limit the spread and selection of antibiotic resistant bacteria. During my thesis, projects were developed around MRSA and antibiotic resistance investigation using innovative technologies. The thesis was subdivided in three main parts with the use of atomic force microscopy AFM for antibiotic resistance detection in part 1, the importance of the bacterial inoculum size in the selection of antibiotic resistance in part 2 and the testing of antimicrobial surfaces creating by sputtering copper onto polyester in part 3. In part 1 the AFM was used two different ways, first for the measurement of stiffness (elasticity) of bacteria and second as a nanosensor for antibiotic susceptibility testing. The stiffness of MRSA with different susceptibility profiles to vancomycin was investigated using the stiffness tomography mode of the AFM and results have demonstrated and increased stiffness in the vancomycin resistant strains that also paralleled with increased thickness of the bacterial cell wall. Parts of the AFM were also used to build a new antibiotic susceptibility-testing device. This nano sensor was able to measure vibrations emitted from living bacteria that ceased definitively upon antibiotic exposure to which they were susceptible but restarted after antibiotic removal to which they were resistant, allowing in a matter of minute the assessment of antibiotic susceptibility determination. In part 2 the inoculum effect (IE) of vancomycin, daptomycin and linezolid and its importance in antibiotic resistance selection was investigated with MRSA during a 15 days of cycling experiment. Results indicated that a high bacterial inoculum and a prolonged antibiotic exposure were two key factors in the in vitro antibiotic resistance selection in MRSA and should be taken into consideration when choosing the drug treatment. Finally in part 3 bactericidal textile surfaces were investigated against MRSA. Polyesters coated after 160 seconds of copper sputtering have demonstrated a high bactericidal activity reducing the bacterial load of at least 3 logio after one hour of contact. -- Au cours des dernières décennies, des bactéries multirésistantes aux antibiotiques (BMR) ont émergé dans les hôpitaux du monde entier. Depuis lors, le nombre de BMR et la prévalence des infections liées aux soins (IAS) continuent de croître et sont associés à une augmentation des taux de morbidité et de mortalité ainsi qu'à des coûts élevés. De plus, le nombre de résistance à différentes classes d'antibiotiques a également augmenté parmi les BMR, limitant ainsi les options thérapeutiques disponibles lorsqu'elles ont liées a des infections. Des mesures visant une détection plus rapide des bactéries résistantes ainsi que l'établissement des paramètres de traitement antibiotiques adéquats sont primordiales lors d'infections déjà présentes. Dans une optique de prévention, la diminution des bactéries présentes sur les surfaces communément touchées pourrait aussi freiner la dissémination et l'évolution des bactéries résistantes. Durant ma thèse, différents projets incluant des nouvelles technologies et évoluant autour de la résistance antibiotique ont été traités. Des nouvelles technologies telles que le microscope à force atomique (AFM) et la pulvérisation cathodique de cuivre (PCC) ont été utilisées, et le Staphylococcus aureus résistant à la méticilline (SARM) a été la principale BMR étudiée. Deux grandes lignes de recherche ont été développées; la première visant à détecter la résistance antibiotique plus rapidement avec l'AFM et la seconde visant à prévenir la dissémination des BMR avec des surfaces crées grâce à la PCC. L'AFM a tout d'abord été utilisé en tant que microscope à sonde locale afin d'investiguer la résistance à la vancomycine chez les SARMs. Les résultats ont démontré que la rigidité de la paroi augmentait avec la résistance à la vancomycine et que celle-ci corrélait aussi avec une augmentation de l'épaisseur des parois, vérifiée grâce à la microscopie électronique. Des parties d'un AFM ont été ensuite utilisées afin de créer un nouveau dispositif de test de sensibilité aux antibiotiques, un nanocapteur. Ce nanocapteur mesure des vibrations produites par les bactéries vivantes. Après l'ajout d'antibiotique, les vibrations cessent définitivement chez les bactéries sensibles à l'antibiotique. En revanche pour les bactéries résistantes, les vibrations reprennent après le retrait de l'antibiotique dans le milieu permettant ainsi, en l'espace de minutes de détecter la sensibilité de la bactérie à un antibiotique. La PCC a été utilisée afin de créer des surfaces bactéricides pour la prévention de la viabilité des BMR sur des surfaces inertes. Des polyesters finement recouverts de cuivre (Cu), connu pour ses propriétés bactéricides, ont été produits et testés contre des SARMs. Une méthode de détection de viabilité des bactéries sur ces surfaces a été mise au point, et les polyesters obtenus après 160 secondes de pulvérisation au Cu ont démontré une excellente activité bactéricide, diminuant la charge bactérienne d'au moins 3 logio après une heure de contact. En conclusion, l'utilisation de nouvelles technologies nous a permis d'évoluer vers de méthodes de détection de la résistance antibiotique plus rapides ainsi que vers le développement d'un nouveau type de surface bactéricide, dans le but d'améliorer le diagnostic et la gestion des BMR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIVE: We examined the correlation between clinical wear rates of restorative materials and enamel (TRAC Research Foundation, Provo, USA) and the results of six laboratory test methods (ACTA, Alabama (generalized, localized), Ivoclar (vertical, volumetric), Munich, OHSU (abrasion, attrition), Zurich). METHODS: Individual clinical wear data were available from clinical trials that were conducted by TRAC Research Foundation (formerly CRA) together with general practitioners. For each of the n=28 materials (21 composite resins for intra-coronal restorations [20 direct and 1 indirect], 5 resin materials for crowns, 1 amalgam, enamel) a minimum of 30 restorations had been placed in posterior teeth, mainly molars. The recall intervals were up to 5 years with the majority of materials (n=27) being monitored, however, only for up to 2 years. For the laboratory data, the databases MEDLINE and IADR abstracts were searched for wear data on materials which were also clinically tested by TRAC Research Foundation. Only those data for which the same test parameters (e.g. number of cycles, loading force, type of antagonist) had been published were included in the study. A different quantity of data was available for each laboratory method: Ivoclar (n=22), Zurich (n=20), Alabama (n=17), OHSU and ACTA (n=12), Munich (n=7). The clinical results were summed up in an index and a linear mixed model was fitted to the log wear measurements including the following factors: material, time (0.5, 1, 2 and 3 years), tooth (premolar/molar) and gender (male/female) as fixed effects, and patient as random effect. Relative ranks were created for each material and method; the same was performed with the clinical results. RESULTS: The mean age of the subjects was 40 (±12) years. The materials had been mostly applied in molars (81%) and 95% of the intracoronal restorations were Class II restorations. The mean number of individual wear data per material was 25 (range 14-42). The mean coefficient of variation of clinical wear data was 53%. The only significant correlation was reached by OHSU (abrasion) with a Spearman r of 0.86 (p=0.001). Zurich, ACTA, Alabama generalized wear and Ivoclar (volume) had correlation coefficients between 0.3 and 0.4. For Zurich, Alabama generalized wear and Munich, the correlation coefficient improved if only composites for direct use were taken into consideration. The combination of different laboratory methods did not significantly improve the correlation. SIGNIFICANCE: The clinical wear of composite resins is mainly dependent on differences between patients and less on the differences between materials. Laboratory methods to test conventional resins for wear are therefore less important, especially since most of them do not reflect the clinical wear.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The technique of sentinel lymph node (SLN) dissection is a reliable predictor of metastatic disease in the lymphatic basin draining the primary melanoma. Reverse transcription-polymerase chain reaction (RT-PCR) is emerging as a highly sensitive technique to detect micrometastases in SLNs, but its specificity has been questioned. A prospective SLN study in melanoma patients was undertaken to compare in detail immunopathological versus molecular detection methods. Sentinel lymphadenectomy was performed on 57 patients, with a total of 71 SLNs analysed. SLNs were cut in slices, which were alternatively subjected to parallel multimarker analysis by microscopy (haematoxylin and eosin and immunohistochemistry for HMB-45, S100, tyrosinase and Melan-A/MART-1) and RT-PCR (for tyrosinase and Melan-A/MART-1). Metastases were detected by both methods in 23% of the SLNs (28% of the patients). The combined use of Melan-A/MART-1 and tyrosinase amplification increased the sensitivity of PCR detection of microscopically proven micrometastases. Of the 55 immunopathologically negative SLNs, 25 were found to be positive on RT-PCR. Notably, eight of these SLNs contained naevi, all of which were positive for tyrosinase and/or Melan-A/MART-1, as detected at both mRNA and protein level. The remaining 41% of the SLNs were negative on both immunohistochemistry and RT-PCR. Analysis of a series of adjacent non-SLNs by RT-PCR confirmed the concept of orderly progression of metastasis. Clinical follow-up showed disease recurrence in 12% of the RT-PCR-positive immunopathology-negative SLNs, indicating that even an extensive immunohistochemical analysis may underestimate the presence of micrometastases. However, molecular analyses, albeit more sensitive, need to be further improved in order to attain acceptable specificity before they can be applied diagnostically.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aujourd'hui, les problèmes des maladies infectieuses concernent l'émergence d'infections difficiles à traiter, telles que les infections associées aux implants et les infections fongiques invasives chez les patients immunodéprimés. L'objectif de cette thèse était de développer des stratégies pour l'éradication des biofilms bactériens (partie 1), ainsi que d'étudier des méthodes innovantes pour la détection microbienne, pour l'établissement de nouveaux tests de sensibilité (partie 2). Le traitement des infections associées aux implants est difficile car les biofilms bactériens peuvent résister à des niveaux élevés d'antibiotiques. A ce jour, il n'y a pas de traitement optimal défini contre des infections causées par des bactéries de prévalence moindre telles que Enterococcus faecalis ou Propionibacterium acnés. Dans un premier temps, nous avons démontré une excellente activité in vitro de la gentamicine sur une souche de E. faecalis en phase stationnaire de croissance Nous avons ensuite confirmé l'activité de la gentamicine sur un biofilm précoce en modèle expérimental animal à corps étranger avec un taux de guérison de 50%. De plus, les courbes de bactéricidie ainsi que les résultats de calorimétrie ont prouvé que l'ajout de gentamicine améliorait l'activité in vitro de la daptomycine, ainsi que celle de la vancomycine. In vivo, le schéma thérapeutique le plus efficace était l'association daptomycine/gentamicine avec un taux de guérison de 55%. En établissant une nouvelle méthode pour l'évaluation de l'activité des antimicrobiens vis-à-vis de micro-organismes en biofilm, nous avons démontré que le meilleur antibiotique actif sur les biofilms à P. acnés était la rifampicine, suivi par la penicilline G, la daptomycine et la ceftriaxone. Les études conduites en modèle expérimental animal ont confirmé l'activité de la rifampicine seule avec un taux de guérison 36%. Le meilleur schéma thérapeutique était au final l'association rifampicine/daptomycine avec un taux de guérison 63%. Les associations de rifampicine avec la vancomycine ou la levofloxacine présentaient des taux de guérisons respectivement de 46% et 25%. Nous avons ensuite étudié l'émergence in vitro de la résistance à la rifampicine chez P. acnés. Nous avons observé un taux de mutations de 10"9. La caractérisation moléculaire de la résistance chez les mutant-résistants a mis en évidence l'implication de 5 mutations ponctuelles dans les domaines I et II du gène rpoB. Ce type de mutations a déjà été décrit au préalable chez d'autres espèces bactériennes, corroborant ainsi la validité de nos résultats. La deuxième partie de cette thèse décrit une nouvelle méthode d'évaluation de l'efficacité des antifongiques basée sur des mesures de microcalorimétrie isotherme. En utilisant un microcalorimètre, la chaleur produite par la croissance microbienne peut être-mesurée en temps réel, très précisément. Nous avons évalué l'activité de l'amphotéricine B, des triazolés et des échinocandines sur différentes souches de Aspergillus spp. par microcalorimétrie. La présence d'amphotéricine Β ou de triazole retardait la production de chaleur de manière concentration-dépendante. En revanche, pour les échinochandines, seule une diminution le pic de « flux de chaleur » a été observé. La concordance entre la concentration minimale inhibitrice de chaleur (CMIC) et la CMI ou CEM (définie par CLSI M38A), avec une marge de 2 dilutions, était de 90% pour l'amphotéricine B, 100% pour le voriconazole, 90% pour le pozoconazole et 70% pour la caspofongine. La méthode a été utilisée pour définir la sensibilité aux antifongiques pour d'autres types de champignons filamenteux. Par détermination microcalorimétrique, l'amphotéricine B s'est avéré être l'agent le plus actif contre les Mucorales et les Fusarium spp.. et le voriconazole le plus actif contre les Scedosporium spp. Finalement, nous avons évalué l'activité d'associations d'antifongiques vis-à-vis de Aspergillus spp. Une meilleure activité antifongique était retrouvée avec l'amphotéricine B ou le voriconazole lorsque ces derniers étaient associés aux échinocandines vis-à-vis de A. fumigatus. L'association échinocandine/amphotéricine B a démontré une activité antifongique synergique vis-à-vis de A. terreus, contrairement à l'association échinocandine/voriconazole qui ne démontrait aucune amélioration significative de l'activité antifongique. - The diagnosis and treatment of infectious diseases are today increasingly challenged by the emergence of difficult-to-manage situations, such as infections associated with medical devices and invasive fungal infections, especially in immunocompromised patients. The aim of this thesis was to address these challenges by developing new strategies for eradication of biofilms of difficult-to-treat microorganisms (treatment, part 1) and investigating innovative methods for microbial detection and antimicrobial susceptibility testing (diagnosis, part 2). The first part of the thesis investigates antimicrobial treatment strategies for infections caused by two less investigated microorganisms, Enterococcus faecalis and Propionibacterium acnes, which are important pathogens causing implant-associated infections. The treatment of implant-associated infections is difficult in general due to reduced susceptibility of bacteria when present in biofilms. We demonstrated an excellent in vitro activity of gentamicin against E. faecalis in stationary growth- phase and were able to confirm the activity against "young" biofilms (3 hours) in an experimental foreign-body infection model (cure rate 50%). The addition of gentamicin improved the activity of daptomycin and vancomycin in vitro, as determined by time-kill curves and microcalorimetry. In vivo, the most efficient combination regimen was daptomycin plus gentamicin (cure rate 55%). Despite a short duration of infection, the cure rates were low, highlighting that enterococcal biofilms remain difficult to treat despite administration of newer antibiotics, such as daptomycin. By establishing a novel in vitro assay for evaluation of anti-biofilm activity (microcalorimetry), we demonstrated that rifampin was the most active antimicrobial against P. acnes biofilms, followed by penicillin G, daptomycin and ceftriaxone. In animal studies we confirmed the anti-biofilm activity of rifampin (cure rate 36% when administered alone), as well as in combination with daptomycin (cure rate 63%), whereas in combination with vancomycin or levofloxacin it showed lower cure rates (46% and 25%, respectively). We further investigated the emergence of rifampin resistance in P. acnes in vitro. Rifampin resistance progressively emerged during exposure to rifampin, if the bacterial concentration was high (108 cfu/ml) with a mutation rate of 10"9. In resistant isolates, five point mutations of the rpoB gene were found in cluster I and II, as previously described for staphylococci and other bacterial species. The second part of the thesis describes a novel real-time method for evaluation of antifungals against molds, based on measurements of the growth-related heat production by isothermal microcalorimetry. Current methods for evaluation of antifungal agents against molds, have several limitations, especially when combinations of antifungals are investigated. We evaluated the activity of amphotericin B, triazoles (voriconazole, posaconazole) and echinocandins (caspofungin and anidulafungin) against Aspergillus spp. by microcalorimetry. The presence of amphotericin Β or a triazole delayed the heat production in a concentration-dependent manner and the minimal heat inhibition concentration (MHIC) was determined as the lowest concentration inhibiting 50% of the heat produced at 48 h. Due to the different mechanism of action echinocandins, the MHIC for this antifungal class was determined as the lowest concentration lowering the heat-flow peak with 50%. Agreement within two 2-fold dilutions between MHIC and MIC or MEC (determined by CLSI M38A) was 90% for amphotericin B, 100% for voriconazole, 90% for posaconazole and 70% for caspofungin. We further evaluated our assay for antifungal susceptibility testing of non-Aspergillus molds. As determined by microcalorimetry, amphotericin Β was the most active agent against Mucorales and Fusarium spp., whereas voriconazole was the most active agent against Scedosporium spp. Finally, we evaluated the activity of antifungal combinations against Aspergillus spp. Against A. jumigatus, an improved activity of amphotericin Β and voriconazole was observed when combined with an echinocandin. Against A. terreus, an echinocandin showed a synergistic activity with amphotericin B, whereas in combination with voriconazole, no considerable improved activity was observed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The geodynamic forces acting in the Earth's interior manifest themselves in a variety of ways. Volcanoes are amongst the most impressive examples in this respect, but like with an iceberg, they only represent the tip of a more extensive system hidden underground. This system consists of a source region where melt forms and accumulates, feeder connections in which magma is transported towards the surface, and different reservoirs where it is stored before it eventually erupts to form a volcano. A magma represents a mixture of melt and crystals. The latter can be extracted from the source region, or form anywhere along the path towards their final crystallization place. They will retain information of the overall plumbing system. The host rocks of an intrusion, in contrast, provide information at the emplacement level. They record the effects of thermal and mechanical forces imposed by the magma. For a better understanding of the system, both parts - magmatic and metamorphic petrology - have to be integrated. I will demonstrate in my thesis that information from both is complementary. It is an iterative process, using constraints from one field to better constrain the other. Reading the history of the host rocks is not always straightforward. This is shown in chapter two, where a model for the formation of clustered garnets observed in the contact aureole is proposed. Fragments of garnets, older than the intrusive rocks are overgrown by garnet crystallizing due to the reheating during emplacement of the adjacent pluton. The formation of the clusters is therefore not a single event as generally assumed but the result of a two-stage process, namely the alteration of the old grains and the overgrowth and amalgamation of new garnet rims. This makes an important difference when applying petrological methods such as thermobarometry, geochronology or grain size distributions. The thermal conditions in the aureole are a strong function of the emplacement style of the pluton. therefore it is necessary to understand the pluton before drawing conclusions about its aureole. A study investigating the intrusive rocks by means of field, geochemical, geochronologi- cal and structural methods is presented in chapter three. This provided important information about the assembly of the intrusion, but also new insights on the nature of large, homogeneous plutons and the structure of the plumbing system in general. The incremental nature of the emplacement of the Western Adamello tonalité is documented, and the existence of an intermediate reservoir beneath homogeneous plutons is proposed. In chapter four it is demonstrated that information extracted from the host rock provides further constraints on the emplacement process of the intrusion. The temperatures obtain by combining field observations with phase petrology modeling are used together with thermal models to constrain the magmatic activity in the immediate intrusion. Instead of using the thermal models to control the petrology result, the inverse is done. The model parameters were changed until a match with the aureole temperatures was obtained. It is shown, that only a few combinations give a positive match and that temperature estimates from the aureole can constrain the frequency of ancient magmatic systems. In the fifth chapter, the Anisotropy of Magnetic Susceptibility of intrusive rocks is compared to 3D tomography. The obtained signal is a function of the shape and distribution of ferromagnetic grains, and is often used to infer flow directions of magma. It turns out that the signal is dominated by the shape of the magnetic crystals, and where they form tight clusters, also by their distribution. This is in good agreement with the predictions made in the theoretical and experimental literature. In the sixth chapter arguments for partial melting of host rock carbonates are presented. While at first very surprising, this is to be expected when considering the prior results from the intrusive study and experiments from the literature. Partial melting is documented by compelling microstructures, geochemical and structural data. The necessary conditions are far from extreme and this process might be more frequent than previously thought. The carbonate melt is highly mobile and can move along grain boundaries, infiltrating other rocks and ultimately alter the existing mineral assemblage. Finally, a mineralogical curiosity is presented in chapter seven. The mineral assemblage magne§site and calcite is in apparent equilibrium. It is well known that these two carbonates are not stable together in the system Ca0-Mg0-Fe0-C02. Indeed, magnesite and calcite should react to dolomite during metamorphism. The presented explanation for this '"forbidden" assemblage is, that a calcite melt infiltrated the magnesite bearing rock along grain boundaries and caused the peculiar microstructure. This is supported by isotopie disequilibrium between calcite and magnesite. A further implication of partially molten carbonates is, that the host rock drastically looses its strength so that its physical properties may be comparable to the ones of the intrusive rocks. This contrasting behavior of the host rock may ease the emplacement of the intrusion. We see that the circle closes and the iterative process of better constraining the emplacement could start again. - La Terre est en perpétuel mouvement et les forces tectoniques associées à ces mouvements se manifestent sous différentes formes. Les volcans en sont l'un des exemples les plus impressionnants, mais comme les icebergs, les laves émises en surfaces ne représentent que la pointe d'un vaste système caché dans les profondeurs. Ce système est constitué d'une région source, région où la roche source fond et produit le magma ; ce magma peut s'accumuler dans cette région source ou être transporté à travers différents conduits dans des réservoirs où le magma est stocké. Ce magma peut cristalliser in situ et produire des roches plutoniques ou alors être émis en surface. Un magma représente un mélange entre un liquide et des cristaux. Ces cristaux peuvent être extraits de la source ou se former tout au long du chemin jusqu'à l'endroit final de cristallisation. L'étude de ces cristaux peut ainsi donner des informations sur l'ensemble du système magmatique. Au contraire, les roches encaissantes fournissent des informations sur le niveau d'emplacement de l'intrusion. En effet ces roches enregistrent les effets thermiques et mécaniques imposés par le magma. Pour une meilleure compréhension du système, les deux parties, magmatique et métamorphique, doivent être intégrées. Cette thèse a pour but de montrer que les informations issues de l'étude des roches magmatiques et des roches encaissantes sont complémentaires. C'est un processus itératif qui utilise les contraintes d'un domaine pour améliorer la compréhension de l'autre. Comprendre l'histoire des roches encaissantes n'est pas toujours aisé. Ceci est démontré dans le chapitre deux, où un modèle de formation des grenats observés sous forme d'agrégats dans l'auréole de contact est proposé. Des fragments de grenats plus vieux que les roches intru- sives montrent une zone de surcroissance générée par l'apport thermique produit par la mise en place du pluton adjacent. La formation des agrégats de grenats n'est donc pas le résultat d'un seul événement, comme on le décrit habituellement, mais d'un processus en deux phases, soit l'altération de vieux grains engendrant une fracturation de ces grenats, puis la formation de zone de surcroissance autour de ces différents fragments expliquant la texture en agrégats observée. Cette interprétation en deux phases est importante, car elle engendre des différences notables lorsque l'on applique des méthodes pétrologiques comme la thermobarométrie, la géochronologie ou encore lorsque l'on étudie la distribution relative de la taille des grains. Les conditions thermales dans l'auréole de contact dépendent fortement du mode d'emplacement de l'intrusion et c'est pourquoi il est nécessaire de d'abord comprendre le pluton avant de faire des conclusions sur son auréole de contact. Une étude de terrain des roches intrusives ainsi qu'une étude géochimique, géochronologique et structurale est présente dans le troisième chapitre. Cette étude apporte des informations importantes sur la formation de l'intrusion mais également de nouvelles connaissances sur la nature de grands plutons homogènes et la structure de système magmatique en général. L'emplacement incrémental est mis en évidence et l'existence d'un réservoir intermédiaire en-dessous des plutons homogènes est proposé. Le quatrième chapitre de cette thèse illustre comment utiliser l'information extraite des roches encaissantes pour expliquer la mise en place de l'intrusion. Les températures obtenues par la combinaison des observations de terrain et l'assemblage métamorphique sont utilisées avec des modèles thermiques pour contraindre l'activité magmatique au contact directe de cette auréole. Au lieu d'utiliser le modèle thermique pour vérifier le résultat pétrologique, une approche inverse a été choisie. Les paramètres du modèle ont été changés jusqu'à ce qu'on obtienne une correspondance avec les températures observées dans l'auréole de contact. Ceci montre qu'il y a peu de combinaison qui peuvent expliquer les températures et qu'on peut contraindre la fréquence de l'activité magmatique d'un ancien système magmatique de cette manière. Dans le cinquième chapitre, les processus contrôlant l'anisotropie de la susceptibilité magnétique des roches intrusives sont expliqués à l'aide d'images de la distribution des minéraux dans les roches obtenues par tomographie 3D. Le signal associé à l'anisotropie de la susceptibilité magnétique est une fonction de la forme et de la distribution des grains ferromagnétiques. Ce signal est fréquemment utilisé pour déterminer la direction de mouvement d'un magma. En accord avec d'autres études de la littérature, les résultats montrent que le signal est dominé par la forme des cristaux magnétiques, ainsi que par la distribution des agglomérats de ces minéraux dans la roche. Dans le sixième chapitre, une étude associée à la fusion partielle de carbonates dans les roches encaissantes est présentée. Si la présence de liquides carbonatés dans les auréoles de contact a été proposée sur la base d'expériences de laboratoire, notre étude démontre clairement leur existence dans la nature. La fusion partielle est documentée par des microstructures caractéristiques pour la présence de liquides ainsi que par des données géochimiques et structurales. Les conditions nécessaires sont loin d'être extrêmes et ce processus pourrait être plus fréquent qu'attendu. Les liquides carbonatés sont très mobiles et peuvent circuler le long des limites de grain avant d'infiltrer d'autres roches en produisant une modification de leurs assemblages minéralogiques. Finalement, une curiosité minéralogique est présentée dans le chapitre sept. L'assemblage de minéraux de magnésite et de calcite en équilibre apparent est observé. Il est bien connu que ces deux carbonates ne sont pas stables ensemble dans le système CaO-MgO-FeO-CO.,. En effet, la magnésite et la calcite devraient réagir et produire de la dolomite pendant le métamorphisme. L'explication présentée pour cet assemblage à priori « interdit » est que un liquide carbonaté provenant des roches adjacentes infiltre cette roche et est responsable pour cette microstructure. Une autre implication associée à la présence de carbonates fondus est que la roche encaissante montre une diminution drastique de sa résistance et que les propriétés physiques de cette roche deviennent comparables à celles de la roche intrusive. Cette modification des propriétés rhéologiques des roches encaissantes peut faciliter la mise en place des roches intrusives. Ces différentes études démontrent bien le processus itératif utilisé et l'intérêt d'étudier aussi bien les roches intrusives que les roches encaissantes pour la compréhension des mécanismes de mise en place des magmas au sein de la croûte terrestre.