181 resultados para Propriétés catalytiques sélectives
Resumo:
La sclérose en plaques (SEP) est une maladie démyélinisante du système nerveux central (SNC) provoquant des pertes motrices, sensitives et cognitives. La SEP se déclare chez le jeune adulte ayant des prédispositions génétiques, mais semble induite, par des facteurs environnementaux. La SEP touche principalement les femmes et sa prévalence dans les zones à haut risque, tel que la Suisse, est de 0.1%. Bien que son étiologie exacte reste méconnue, nous savons que la maladie est médiée par des lymphocytes T autoréactifs périphériques, qui infiltrent le SNC où ils activent d'autres cellules immunitaires ainsi que les cellules du SNC elles-mêmes, créant un foyer inflammatoire, qui va attaquer et finir par tuer les oligodendrocytes et les neurones. Les épisodes inflammatoires sont entrecoupés par des phases de rémission associées à une guérison partielle des lésions. Cette première phase de la maladie, comprenant des épisodes inflammatoires et de rémissions est appelé SEP récurrente-rémittente (SEP-RR) et touche 90% des patients. Elle évolue, dans deux-tiers des cas, vers une SEP secondaire progressive (SEP-SP), qui est caractérisée par une progression constante de la maladie, associée à une réduction de l'inflammation mais une augmentation de la neurodégénérescence. Les patients souffrants de SEP primaire progressive (SEP-PP) développent directement les symptômes de la phase progressive de la maladie. Les thérapies disponibles ont considérablement amélioré l'évolution de la maladie des patients SEP-RR, en agissant sur une diminution de la réponse immunitaire et donc de l'inflammation. Cependant, ces traitements sont inefficaces chez les patients SEP-SP et SEP-PP, n'agissant pas sur la neurodégénérescence. IL-22, une cytokine sécrétée notoirement par les cellules Th17, a été associée à la SEP en contribuant à la perméabilisation de la barrière hémato-encéphalique et à l'inflammation du SNC, qui sont des étapes clés de la pathogenèse de la maladie. En outre, le gène codant pour un inhibiteur puissant d'IL- 22, 'IL-22 binding protein' (IL-22BP), a été démontré comme un facteur de risque de la SEP. Ces indices nous ont poussés à nous intéresser de plus près au rôle de l'IL-22 dans la SEP. Nous avons pu montrer qu'IL-22 et IL-22BP étaient augmentées dans le sang des patients SEP par rapport à des sujets sains. Nous avons trouvé qu'IL-22 cible spécifiquement les astrocytes dans le SNC et que son récepteur est particulièrement exprimé dans les lésions des patient SEP. Contre toute attente, nous avons pu montrer que l'IL-22 semble soutenir la survie des astrocytes. Cette découverte, suggérant qu'IL-22 serait protecteur pour le SNC et pour la SEP, confirme de récentes publications et ouvre la voie à de potentielles applications thérapeutiques. En parallèle, dans le but de mieux comprendre l'immunopathogenèse de la SEP, nous avons développé les techniques de culture de cellules souches pluripotentes induites (iPSC). Nos iPSC sont dérivées du sang des donneurs et acquièrent toutes les propriétés des cellules souches embryonnaires après induction. Les iPSC peuvent ensuite être différenciées en différents types de cellules, dont les cellules du SNC. Nous avons ainsi pu obtenir avec succès des neurones, dérivés de cellules du sang, en passant par le stade des iPSC. La prochaine étape consiste à générer des cultures d'astrocytes et d'oligodendrocytes et ainsi obtenir les principales cellules du SNC, le but étant de former de véritables 'cerveaux-en-culture'. Cet outil semble particulièrement adapté à l'étude de l'activité de diverses molécules sur les cellules du SNC, comme par exemple l'IL-22 et d'autres molécules ayant un potentiel intérêt thérapeutique au niveau du SNC. Le but ultime étant de développer des co-cultures de cellules du SNC avec des cellules immunitaires autologues, de patients SEP et de sujets sains, afin de mettre en évidence l'attaque des cellules du SNC par des leucocytes autoréactifs. Ce projet prospectif a permis d'accroître nos connaissance sur des aspects immunitaires de la SEP et à pour but de mieux comprendre l'immunopathogenèse de la SEP afin d'élaborer de nouvelles stratégies thérapeutiques. -- La sclérose en plaques est une maladie auto-inflammatoire du système nerveux central conduisant à la destruction de la myéline, indispensable à la conduction nerveuse, et finalement à la mort des neurones eux-mêmes. Cela a pour conséquence des pertes motrices, sensorielles et cognitives, qui ont tendance à s'aggraver au fil de la maladie. Elle se déclare chez le jeune adulte, entre l'âge de 20 et 40 ans, et prédomine chez la femme. En Suisse, environ une personne sur l'OOO est atteinte de sclérose en plaques. Les causes exactes de cette maladie, qui incluent des facteurs génétiques et environnementaux, sont encore mal connues. Des traitements de plus en plus efficaces ont été développés ces dernières années et ont permis de drastiquement améliorer l'évolution de la maladie chez les patients atteints de sclérose en plaques. Cependant, ces traitements ne sont efficaces que sur certaines catégories de patients et peuvent engendrer de lourds effets secondaires. Ces thérapies agissent presque exclusivement sur les cellules du système immunitaire en les désactivant partiellement, mais pas sur les cellules nerveuses, qui sont pourtant celles qui conditionnent le devenir du patient. Le développement de médicaments protégeant ou permettant la régénération des cellules du système nerveux central est donc primordial. L'étude de l'interleukine-22 nous a permis de montrer que cette cytokine ('hormone' du système immunitaire) pouvait cibler spécifiquement les astrocytes, des cellules gliales qui jouent un rôle central dans le maintien de l'équilibre du système nerveux central. Nos recherches ont montré que cette interleukine-22 permettrait une meilleure survie des astrocytes durant la phase aiguë de la maladie et aurait aussi des propriétés neuroprotectrices. En parallèle, nous sommes en train de développer un nouveau modèle in vitro d'étude de la sclérose en plaques grâce à la technologie des cellules souches pluripotentes induites. Ces cellules souches sont induites à partir de cellules du sang du donneur et acquièrent toutes les caractéristiques des cellules souches embryonnaires présentes dans un organisme en formation. Ainsi, ces cellules souches pluripotentes ont, par exemple, la capacité de se différencier en cellules du système nerveux central. Nous avons pu, de cette manière, obtenir des neurones. Le but ultime serait de pouvoir reconstituer une ébauche de cerveau in vitro, en cultivant ensemble différents types de cellules du système nerveux central, afin d'y réaliser des expériences avec des cellules immunitaires du même donneur. Ces travaux ont pour but d'améliorer notre compréhension de la pathogenèse de la sclérose en plaques et de permettre le développement de nouvelles stratégies thérapeutiques. --Multiple sclerosis (MS) is a demyelinating disease of the central nervous system leading to cognitive, sensitive and motor disabilities. MS occurs in genetically predisposed young adults with probable environmental triggers. MS affects predominantly women and its prevalence in high risk area such as Switzerland is 0.1%. Though its exact aetiology remains undetermined, we know that autoreactive T cells from de periphery are reactivated and recruited into the central nervous system (CNS) were they further activate other immune cells and resident cells, creating inflammatory foci, where oligodendrocytes and neurons are insulted and, eventually, killed. Inflammatory episodes, called relapses, are interspersed with remission phases where partial recovery of the lesions occurs. This first phase of the disease, occurring in 90% of the patients, is called relapsing-remitting MS (RR-MS) and is leading, in two-third of the cases, to secondary-progressive MS (SP-MS), where there is a continuous steady progression of the disease, associated with reduced inflammation but increased neurodegeneration. Primary-progressive MS (PP-MS) patients experience directly this progressive phase of the disease. Whereas disease modifying therapies have dramatically ameliorated the disease course of RR-MS patients by dampening immunity and, in turn, inflammation, treatments of SP-MS and PP-MS patients, who suffer primarily from the neurodegenerative aspect of the disease, are still inexistent. IL-22, a pro-inflammatory Th17 cell cytokine, has been associated with MS by participating to blood-brain barrier infiltration and CNS inflammation, which are crucial steps in MS pathogenesis. In addition, the gene coding for IL-22 binding protein (IL-22BP), which is a potent secreted IL-22 inhibitor, has been associated with MS risk. These findings call for further investigation on the role of IL-22 in MS. We detected increased IL-22 and IL-22BP in the blood of MS patients as compared to healthy controls. Acting exclusively on cells of nonhematopoietic origin, we found that IL-22 targets specifically astrocytes in the CNS and that its receptor is highly expressed in the lesion of MS patients. Unexpectedly, we found that IL-22 seems to promote survival of astrocytes. This finding, suggesting that IL-22 might be protective for the CNS in the context of MS, is consistent with recent publications and might open putative therapeutic applications at the CNS level. In parallel, with the aim of better understanding the immunopathogenesis of MS, we developed induced pluripotent stem cell (iPSC) techniques. IPSC are derived from blood cells of the donors and bear embryonic stem cell properties. IPSC can be differentiated into various cell types including CNS cells. We successfully obtained neurons derived from the donor blood cells, through iPSC. We further aim at developing astrocytes and oligodendrocytes cultures to recreate a 'brain-in-a-dish'. This would be a powerful tool to test the activity of various compounds on CNS cells, including IL-22 and other putative neuroprotective drugs. Ultimately, the goal is to develop co-cultures of CNS cells with autologous immune cells of MS patients as well as healthy controls to try to expose evidence of CNS cells targeted by autoreactive leukocytes. This prospective project has increased our knowledge of immune aspects of MS and further aims at better understanding the immunopathology of MS in order to pave the way to the elaboration of new therapeutic strategies.
Resumo:
Résumé: L'impact de la maladie d'Alzheimer (MA) est dévastateur pour la vie quotidienne de la personne affectée, avec perte progressive de la mémoire et d'autres facultés cognitives jusqu'à la démence. Il n'existe toujours pas de traitement contre cette maladie et il y a aussi une grande incertitude sur le diagnostic des premiers stades de la MA. La signature anatomique de la MA, en particulier l'atrophie du lobe temporal moyen (LTM) mesurée avec la neuroimagerie, peut être utilisée comme un biomarqueur précoce, in vivo, des premiers stades de la MA. Toutefois, malgré le rôle évident du LMT dans les processus de la mémoire, nous savons que les modèles anatomiques prédictifs de la MA basés seulement sur des mesures d'atrophie du LTM n'expliquent pas tous les cas cliniques. Au cours de ma thèse, j'ai conduit trois projets pour comprendre l'anatomie et le fonctionnement du LMT dans (1) les processus de la maladie et dans (2) les processus de mémoire ainsi que (3) ceux de l'apprentissage. Je me suis intéressée à une population avec déficit cognitif léger (« Mild Cognitive Impairment », MCI), à risque pour la MA. Le but du premier projet était de tester l'hypothèse que des facteurs, autres que ceux cognitifs, tels que les traits de personnalité peuvent expliquer les différences interindividuelles dans le LTM. De plus, la diversité phénotypique des manifestations précliniques de la MA provient aussi d'une connaissance limitée des processus de mémoire et d'apprentissage dans le cerveau sain. L'objectif du deuxième projet porte sur l'investigation des sous-régions du LTM, et plus particulièrement de leur contribution dans différentes composantes de la mémoire de reconnaissance chez le sujet sain. Pour étudier cela, j'ai utilisé une nouvelle méthode multivariée ainsi que l'IRM à haute résolution pour tester la contribution de ces sous-régions dans les processus de familiarité (« ou Know ») et de remémoration (ou « Recollection »). Finalement, l'objectif du troisième projet était de tester la contribution du LTM en tant que système de mémoire dans l'apprentissage et l'interaction dynamique entre différents systèmes de mémoire durant l'apprentissage. Les résultats du premier projet montrent que, en plus du déficit cognitif observé dans une population avec MCI, les traits de personnalité peuvent expliquer les différences interindividuelles du LTM ; notamment avec une plus grande contribution du neuroticisme liée à une vulnérabilité au stress et à la dépression. Mon étude a permis d'identifier un pattern d'anormalité anatomique dans le LTM associé à la personnalité avec des mesures de volume et de diffusion moyenne du tissu. Ce pattern est caractérisé par une asymétrie droite-gauche du LTM et un gradient antéro-postérieur dans le LTM. J'ai interprété ce résultat par des propriétés tissulaires et neurochimiques différemment sensibles au stress. Les résultats de mon deuxième projet ont contribué au débat actuel sur la contribution des sous-régions du LTM dans les processus de familiarité et de remémoration. Utilisant une nouvelle méthode multivariée, les résultats supportent premièrement une dissociation des sous-régions associées aux différentes composantes de la mémoire. L'hippocampe est le plus associé à la mémoire de type remémoration et le cortex parahippocampique, à la mémoire de type familiarité. Deuxièmement, l'activation correspondant à la trace mnésique pour chaque type de mémoire est caractérisée par une distribution spatiale distincte. La représentation neuronale spécifique, « sparse-distributed», associée à la mémoire de remémoration dans l'hippocampe serait la meilleure manière d'encoder rapidement des souvenirs détaillés sans interférer les souvenirs précédemment stockés. Dans mon troisième projet, j'ai mis en place une tâche d'apprentissage en IRM fonctionnelle pour étudier les processus d'apprentissage d'associations probabilistes basé sur le feedback/récompense. Cette étude m'a permis de mettre en évidence le rôle du LTM dans l'apprentissage et l'interaction entre différents systèmes de mémoire comme la mémoire procédurale, perceptuelle ou d'amorçage et la mémoire de travail. Nous avons trouvé des activations dans le LTM correspondant à un processus de mémoire épisodique; les ganglions de la base (GB), à la mémoire procédurale et la récompense; le cortex occipito-temporal (OT), à la mémoire de représentation perceptive ou l'amorçage et le cortex préfrontal, à la mémoire de travail. Nous avons également observé que ces régions peuvent interagir; le type de relation entre le LTM et les GB a été interprété comme une compétition, ce qui a déjà été reporté dans des études récentes. De plus, avec un modèle dynamique causal, j'ai démontré l'existence d'une connectivité effective entre des régions. Elle se caractérise par une influence causale de type « top-down » venant de régions corticales associées avec des processus de plus haut niveau venant du cortex préfrontal sur des régions corticales plus primaires comme le OT cortex. Cette influence diminue au cours du de l'apprentissage; cela pourrait correspondre à un mécanisme de diminution de l'erreur de prédiction. Mon interprétation est que cela est à l'origine de la connaissance sémantique. J'ai également montré que les choix du sujet et l'activation cérébrale associée sont influencés par les traits de personnalité et des états affectifs négatifs. Les résultats de cette thèse m'ont amenée à proposer (1) un modèle expliquant les mécanismes possibles liés à l'influence de la personnalité sur le LTM dans une population avec MCI, (2) une dissociation des sous-régions du LTM dans différents types de mémoire et une représentation neuronale spécifique à ces régions. Cela pourrait être une piste pour résoudre les débats actuels sur la mémoire de reconnaissance. Finalement, (3) le LTM est aussi un système de mémoire impliqué dans l'apprentissage et qui peut interagir avec les GB par une compétition. Nous avons aussi mis en évidence une interaction dynamique de type « top -down » et « bottom-up » entre le cortex préfrontal et le cortex OT. En conclusion, les résultats peuvent donner des indices afin de mieux comprendre certains dysfonctionnements de la mémoire liés à l'âge et la maladie d'Alzheimer ainsi qu'à améliorer le développement de traitement. Abstract: The impact of Alzheimer's disease is devastating for the daily life of the affected patients, with progressive loss of memory and other cognitive skills until dementia. We still lack disease modifying treatment and there is also a great amount of uncertainty regarding the accuracy of diagnostic classification in the early stages of AD. The anatomical signature of AD, in particular the medial temporal lobe (MTL) atrophy measured with neuroimaging, can be used as an early in vivo biomarker in early stages of AD. However, despite the evident role of MTL in memory, we know that the derived predictive anatomical model based only on measures of brain atrophy in MTL does not explain all clinical cases. Throughout my thesis, I have conducted three projects to understand the anatomy and the functioning of MTL on (1) disease's progression, (2) memory process and (3) learning process. I was interested in a population with mild cognitive impairment (MCI), at risk for AD. The objective of the first project was to test the hypothesis that factors, other than the cognitive ones, such as the personality traits, can explain inter-individual differences in the MTL. Moreover, the phenotypic diversity in the manifestations of preclinical AD arises also from the limited knowledge of memory and learning processes in healthy brain. The objective of the second project concerns the investigation of sub-regions of the MTL, and more particularly their contributions in the different components of recognition memory in healthy subjects. To study that, I have used a new multivariate method as well as MRI at high resolution to test the contribution of those sub-regions in the processes of familiarity and recollection. Finally, the objective of the third project was to test the contribution of the MTL as a memory system in learning and the dynamic interaction between memory systems during learning. The results of the first project show that, beyond cognitive state of impairment observed in the population with MCI, the personality traits can explain the inter-individual differences in the MTL; notably with a higher contribution of neuroticism linked to proneness to stress and depression. My study has allowed identifying a pattern of anatomical abnormality in the MTL related to personality with measures of volume and mean diffusion of the tissue. That pattern is characterized by right-left asymmetry in MTL and an anterior to posterior gradient within MTL. I have interpreted that result by tissue and neurochemical properties differently sensitive to stress. Results of my second project have contributed to the actual debate on the contribution of MTL sub-regions in the processes of familiarity and recollection. Using a new multivariate method, the results support firstly a dissociation of the subregions associated with different memory components. The hippocampus was mostly associated with recollection and the surrounding parahippocampal cortex, with familiarity type of memory. Secondly, the activation corresponding to the mensic trace for each type of memory is characterized by a distinct spatial distribution. The specific neuronal representation, "sparse-distributed", associated with recollection in the hippocampus would be the best way to rapidly encode detailed memories without overwriting previously stored memories. In the third project, I have created a learning task with functional MRI to sudy the processes of learning of probabilistic associations based on feedback/reward. That study allowed me to highlight the role of the MTL in learning and the interaction between different memory systems such as the procedural memory, the perceptual memory or priming and the working memory. We have found activations in the MTL corresponding to a process of episodic memory; the basal ganglia (BG), to a procedural memory and reward; the occipito-temporal (OT) cortex, to a perceptive memory or priming and the prefrontal cortex, to working memory. We have also observed that those regions can interact; the relation type between the MTL and the BG has been interpreted as a competition. In addition, with a dynamic causal model, I have demonstrated a "top-down" influence from cortical regions associated with high level cortical area such as the prefrontal cortex on lower level cortical regions such as the OT cortex. That influence decreases during learning; that could correspond to a mechanism linked to a diminution of prediction error. My interpretation is that this is at the origin of the semantic knowledge. I have also shown that the subject's choice and the associated brain activation are influenced by personality traits and negative affects. Overall results of this thesis have brought me to propose (1) a model explaining the possible mechanism linked to the influence of personality on the MTL in a population with MCI, (2) a dissociation of MTL sub-regions in different memory types and a neuronal representation specific to each region. This could be a cue to resolve the actual debates on recognition memory. Finally, (3) the MTL is also a system involved in learning and that can interact with the BG by a competition. We have also shown a dynamic interaction of « top -down » and « bottom-up » types between the pre-frontal cortex and the OT cortex. In conclusion, the results could give cues to better understand some memory dysfunctions in aging and Alzheimer's disease and to improve development of treatment.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.
Resumo:
Une des meilleures techniques pour décontaminer l'environnement d'éléments toxiques (comme par exemple le dibenzofuan, DBF et le 4-chlorophenol, 4CP) déposés par l'homme, à bas coûts et sans le perturber considérablement, est sans doute la biorémédiation, et particulièrement la bioaugmentation. Malheureusement, si plusieurs microorganismes ont démontré leur efficacité à dégrader les composés toxiques en conditions de laboratoire, plusieurs tentatives afin de les utiliser dans l'environnement n'ont pas abouti. Ces échecs sont probablement le résultat des pauvres connaissances des réactions de ces mêmes microorganismes dans l'environnement. L'objectif de mon travail a été de mieux comprendre les réponses de ces bactéries au niveau de leurs gènes lorsqu'elles sont introduites ou prospèrent dans des conditions plus proches de la réalité, mais encore suffisamment contrôlées pour pouvoir élucider leur comportement. Le fait de résister à des conditions de sécheresse a été considéré en tant que facteur clé dans la survie des bactéries amenées à être utilisées pour la biorémédiation; cela implique une série de mécanismes utilisés par la cellule pour faire face au stress hydrique. Le chapitre II, par une approche métagénomique, compare les réactions de trois souches prometteuses pour la biorémédiation (Arthrobacter chlorophenolicus A6, Sphingomonas wittichii RW1 and Pseudomonas veronii 1YdBTEX2) vis-à-vis du stress hydrique simulé en conditions de laboratoire. L'objectif ici est de découvrir et de décrire les stratégies de résistance au stress, communes ou spécifiques, employées par les bactéries. Mes résultats montrent que les trois souches ont des sensibilités différentes au stress hydrique. Entre les traits communs trouvés, il y a une diminution de l'expression des gènes flagellaires ainsi qu'une augmentation de l'expression de solutes compatibles, mais qui sont souche-spécifiques. J'ai étudié plus en détail la réponse génomique de RW1 par rapport aux inoculations ainsi que sa croissance dans le sable contaminé et non-stérile (chapitre III), et je les ai comparé à des cultures en milieu liquide. Mes résultats indiquent que RW1 peut résister efficacement et peut croître dans des conditions presque sèches et peut également dégrader le contaminant (DBF, dans le cas présent) si les pré-cultures sont réalisées dans le même type de contaminant. Par contre, notre hypothèse du chapitre II se révèle fausse car le comportement de RW1 est très diffèrent de celui observé dans des conditions avec stress hydrique induit par l'addition de sel ou de PEG. Plus intéressant, les réponses de RW1 en milieu liquide sont très différentes de celles observées dans le sable, révélant ainsi que cette souche peut reconnaître le milieu dans lequel elle se trouve. Les mêmes expériences en sable contaminé, cette fois-ci avec 4CP, ont été réalisées pour A6 (chapitre IV) dans l'espoir de compléter la comparaison entre le stress hydrique et l'adaptation dans le sol. Malheureusement, il n'a pas été possible d'obtenir d'échantillons de bonne qualité pour les hybridations des microarrays afin d'étudier la réponse transcriptionnelle dans les différentes phases de croissance dans le sable (contaminé ou non). Toutefois, j'ai appris qu'Arthrobacter ne peut pas croitre dans les sols hautement contaminés si les conditions du sol sont très sèches, elles ont en effet besoin de suffisamment d'eau pour dégrader des quantités importantes de 4CP. Ces observations dirigent l'attention sur le fait que les études sur l'efficacité de l'inoculation de bactéries doivent être testées dans des conditions le plus proche possible de l'environnement ciblé, tout comme les concentrations optimales pour l'inoculum. Finalement, nous avons étudié le comportement de A6 dans la phytosphère avec deux dégrés d'humidité (chapitre V). A6 ne montre pas de réaction particulière face aux changements d'humidité, et à nouveau, ces réponses ne peuvent être liées aux changements d'expression des gènes observées dans les conditions de stress hydrique simulées. Cette étude a permis d'identifier la présence de composés phénoliques dans les feuilles qui peuvent potentiellement améliorer les propriétés de dégradation ou qui permettent d'effectuer de façon plus rapide la réaction de dégradation des contaminants dans un processus de phytoremédiation par A. chlorophenolicus.
Resumo:
Neutrophil extracellular traps (NETs) formation is a cell death mechanism characterized by the extrusion of DNA fibers associated to antimicrobial peptides such as LL37. Beside their antimicrobial role, NETs are highly immunogenic by their ability to activate plasmacytoid dendritic cells (pDCs). In this context, LL37 binds to NET-DNA, leading to endosomal Toll¬like-receptor (TLR) 9 binding, resulting in Interferon alpha (IFNa) production by pDCs. Uncontrolled pDC activation by NETs is an important player in the pathogenesis of autoimmune disease such as Lupus Erythematosus (LE); however the regulation of NET- driven pDC activation is poorly characterized. Olfactomedin 4 (OLFM4) is a granule protein present in a subset of circulating neutrophils and was shown to bear anti-inflammatory properties in a mouse model, raising the possibility that it may regulate neutrophil-induced inflammation. Therefore, in this project, we aimed at deciphering the mechanism by which OLFM4 may regulate inflammation induced by NET-activated pDC and its relevance in the pathogenesis of Lupus Erythematosus (LE). First, we show that OLFM4 directly interacted with LL37 in neutrophils, impairing LL37/DNA complexes formation and pDC activation to produce IFNa. Then, by using an in vivo model of acute inflammation depending on NET- driven activation of pDCs, we observed that the absence of Olfm4 led to uncontrolled type I IFN production, confirming the regulatory role of neutrophil-derived OLFM4. Beyond controlling NET-induced inflammation, we also show that OLFM4 could inhibit pDC activation mediated by DNA-containing immune complexes (ICs), suggesting that OLFM4 holds anti¬inflammatory properties in the context of LE. Of note, we identified a previously unknown population of OLFM4hi9h neutrophils in healthy individuals that may belong to the immunosuppressive subset of granulocytic myeloid-derived suppressor cells (g-MDSCs). Strikingly, we observed a decreased frequency of OLFM4h'9h cells among inflammatory Low density granulocytes (LDGs) neutrophils in LE patients, suggesting that a disequilibrium between pro- and anti-inflammatory neutrophils may participate to the disease pathogenesis. Altogether, this study demonstrates that OLFM4 is involved in the resolution of inflammation. -- La NETose (formation de Neutrophil Extracellular Traps, NETs) est une réponse à un stimulus inflammatoire caractérisée par l'expulsion de l'ADN lié à des peptides antimicrobiens comme le LL37, induisant la mort de la cellule. Les NETs possèdent des propriétés antibactériennes et sont pro-inflammatoires via leur capacité à activer les cellules dendritiques plasmacytoïdes (pDCs). Dans ce contexte, les complexes ADN/LL37 libérés lient le récepteur Toll-like 9 des pDCs, induisant la production d'Interféron alpha (IFNa). La production incontrôlée d'IFNa par les pDCs est impliquée dans la pathogenèse du Lupus Erythemateux (LE), cependant la régulation de l'activation des pDCs reste mal connue. L'Oflactomédine 4 (OLFM4) est une protéine produite par une sous-population de neutrophiles, avec des propriétés anti-inflammatoires possibles. Le but de ce projet était d'identifier les mécanismes par lesquels l'OLFM4 pourrait réguler l'inflammation induite par les NETs et sa relevance dans la pathogenèse du LE. Tout d'abord, nous avons montré que l'OLFM4 interagissait avec le LL37, empêchant la production des complexes ADN/LL37 qui activent les pDCs. Nous avons vérifié notre hypothèse in vivo en utilisant un modèle murin d'inflammation locale dépendant des pDCs et des NETs. Dans ce contexte, le déficit en Olfm4 était associé à une production accrue d'IFNa, confirmant le rôle de l'OLFM4 dans le contrôle de l'inflammation. De plus, l'OLFM4 pouvait également inhiber l'activation des pDCs induite par des complexes immuns, suggérant que l'OLFM4 serait aussi anti-inflammatoire dans le contexte du LE. Ensuite, nous avons identifié une nouvelle population de neutrophiles OLFM4h'9h chez les sujets sains qui pourraient appartenir au sous-type anti¬inflammatoire des g-MDSCs (granulocytic myeloid-derived suppressor cells). Nous avons observé une diminution de ces cellules parmi les neutrophiles pro-inflammatoires LDGs (Low Density Granulocytes) dans le LE suggérant qu'un déséquilibre entre les sous-types de neutrophiles pourrait participer à l'inflammation excessive de cette maladie. Ces travaux mettent en évidence l'implication de l'OLFM4 dans la résolution de l'inflammation et suggèrent qu'une expression altérée de l'OLFM4 pourrait participer à la pathogenèse du LE. -- Les neutrophils constituent la majorité des globules blancs circulants et sont rapidement mobilisés depuis le sang dans un organe lésé en cas d'infection ou de blessure. Ils représentent la première ligne de défense du système immunitaire. Ils sont indispensables dans la défense contre les infections par leur capacité à tuer les bactéries, par exemple en produisant des peptides antimicrobiens (AMPs) qui fonctionnent comme des antibiotiques naturels. De plus, les neutrophiles recrutent les autres membres du système immunitaire qui sont nécessaires à l'éradication complète des microbes et à la réparation des tissus. Les nombreux outils permettant aux neutrophiles de contrôler les infections ne sont cependant pas sans danger pour les tissus. En effet, diverses molécules comme les AMPs peuvent induire des dommages tissulaires substantiels en participant au développement d'une inflammation chronique. Ceci est particulièrement le cas lorsque les neutrophiles meurent par un processus nommé NETose. Dans ce contexte, la cellule subit une dissolution de sa membrane suivie de l'expulsion de son ADN associé à des AMPs. Ces complexes formés d'ADN et d'AMPs induisent la production de cytokines pro-inflammatoires dont l'Interféron alpha (IFNa). Certaines maladies auto-immunes comme le lupus érythémateux sont associées à un excès de NETose produit par les neutrophiles et à un excès d'IFNa qui participe au développement de la maladie. Dans cette thèse, nous avons montré que l'Olfactomédine 4 (OLFM4), une protéine produite par les neutrophiles eux-mêmes, est un inhibiteur de cette inflammation. Nous avons démontré que TOLFM4 empêchait la formation des complexes ADN/AMPs, réduisant par là la production d'IFNa in vitro et in vivo. Finalement, nos recherches ont suggéré que l'OLFM4 pourrait être insuffisamment produite chez les patients souffrant de lupus, ce qui pourrait participer à l'inflammation chronique associée à la maladie.
Resumo:
L'intoxication éthylique aiguë (IEA) est un motif de recours fréquent en médecine d'urgence. Bien qu'évoluant de manière spontanément favorable dans la majorité des cas, un certain nombre de complications sont susceptibles de survenir dans ce contexte, entrainant des répercussions significatives sur le pronostic des patients. Or, les altérations neurocomportementales accompagnant classiquement ce type d'intoxication mettent régulièrement les cliniciens face à des dilemmes de prise en charge complexes à résoudre. D'autre part, si les propriétés de l'éthanol peuvent atténuer l'expression clinique de certaines pathologies, un certain nombre d'affection de nature métabolique ou neurologique sont susceptibles d'être interprétées à tort comme des IEA. La littérature médicale ne fournissant que peu d'outils d'aide à la décision dans ce domaine, il est souvent difficile de trouver un compromis acceptable entre recours excessif aux examens complémentaires et banalisation face aux patients alcoolisés. A partir de situations cliniques, le présent article propose une approche pragmatique de deux problématiques régulièrement associées à une IEA et sources d'erreur diagnostique, le traumatisme crânien et l'état d'agitation. Ainsi, une meilleure définition des conditions de recours au scanner cérébral en cas de traumatisme crânien et l'adoption d'un protocole de sédation précoce dans l'ivresse excito-motrice doivent permettre de contourner en partie les difficultés soulevées par ces patients.
Resumo:
Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
It is well established that cytotoxic T lymphocytes play a pivotal role in the protection against intracellular pathogens and tumour cells. Such protective immune responses rely on the specific T cell receptor (TCR)-mediated recognition by CD8 T cells of small antigenic peptides presented in the context of class-I Major Histocompatibility Complex molecules (pMHCs) on the surface of infected or malignant cells. The strength (affinity/avidity) of this interaction is a major correlate of protection. Although tumour-reactive CD8 T cells can be observed in cancer patients, anti-tumour immune responses are often ineffective in controlling or eradicating the disease due to the relative low TCR affinity of these cells. To overcome this limitation, tumour-specific CD8 T cells can be genetically modified to express TCRs of improved binding strength against a defined tumour antigen before adoptive cell transfer into cancer patients. We previously generated a panel of TCRs specific for the cancer-testis antigen NY-ESO-l,57.165 with progressively increased affinities for the pMHC complex, thus providing us with a unique tool to investigate the causal link between the surface expression of such TCRs and T cell activation and function. We recently demonstrated that anti-tumour CD8 T cell reactivity could only be improved within physiological affinity limits, beyond which drastic functional declines were observed, suggesting the presence of multiple regulatory mechanisms limiting T cell activation and function in a TCR affinity-dependent manner. The overarching goal of this thesis was (i) to assess the precise impact of TCR affinity on T cell activation and signalling at the molecular level and (ii) to gain further insights on the mechanisms that regulate and delimitate maximal/optimized CD8 T cell activation and signalling. Specifically, by combining several technical approaches we characterized the activation status of proximal (i.e. CD3Ç, Lek, and ZAP-70) and distal (i.e. ERK1/2) signalling molecules along the TCR affinity gradient. Moreover, we assessed the extent of TCR downmodulation, a critical step for initial T cell activation. CD8 T cells engineered with the optimal TCR affinity variants showed increased activation levels of both proximal and distal signalling molecules when compared to the wild-type T cells. Our analyses also highlighted the "paradoxical" status of tumour-reactive CD8 T cells bearing very high TCR affinities, which retained strong proximal signalling capacity and TCR downmodulation, but were unable to propagate signalling distally (i.e. pERKl/2), resulting in impaired cell-mediated functions. Importantly, these very high affinity T cells displayed maximal levels of SHP-1 and SHP-2 phosphatases, two negative regulatory molecules, and this correlated with a partial pERKl/2 signalling recovery upon pharmacological SHP-l/SHP-2 inhibition. These findings revealed the putative presence of inhibitory regulators of the TCR signalling cascade acting very rapidly following tumour-specific stimulation. Moreover, the very high affinity T cells were only able to transiently express enhanced proximal signalling molecules, suggesting the presence of an additional level of regulation that operates through the activation of negative feedback loops over time, limiting the duration of the TCR-mediated signalling. Overall, the determination of TCR-pMHC binding parameters eliciting optimal CD8 T cell activation, signalling, and effector function while guaranteeing high antigen specificity, together with the identification of critical regulatory mechanisms acting proximally in the TCR signalling cascade, will directly contribute to optimize and support the development of future TCR-based adoptive T cell strategies for the treatment of malignant diseases. -- Les lymphocytes T CD8 cytotoxiques jouent un rôle prédominant dans la protection contre les pathogènes intracellulaires et les cellules tumorales. Ces réponses immunitaires dépendent de la spécificité avec laquelle les récepteurs T (TCR) des lymphocytes CD8 reconnaissent les peptides antigéniques présentés par les molécules du complexe Majeur de Histocompatibilité de classe I (pCMH) à la surface des cellules infectées ou malignes. La force (ou affinité/avidité) de l'interaction du TCR-pCMH est un corrélat majeur de protection. Les réponses immunitaires sont cependant souvent inefficaces et ne permettent pas de contrôler ou d'éliminer les cellules tumorales chez les patients atteint du cancer, et ce à cause de la relative faible reconnaissance des TCRs exprimés par les lymphocytes T CD8 envers les antigènes tumoraux. Afin de surmonter cette limitation, les cellules T anti-tumorales peuvent être génétiquement modifiées en les dotant de TCRs préalablement optimisés afin d'augmenter leur reconnaissance ou affinité contre les antigènes tumoraux, avant leur ré¬infusion dans le patient. Nous avons récemment généré des cellules T CD8 exprimant un panel de TCRs spécifiques pour l'antigène tumoral NY-ESO-l157.16J avec des affinités croissantes, permettant ainsi d'investiguer la causalité directe entre l'affinité du TCR-pCMH et la fonction des cellules T CD8. Nous avons démontré que la réactivité anti-tumorale pouvait être améliorée en augmentant l'affinité du TCR dans une intervalle physiologique, mais au delà duquel nous observons un important déclin fonctionnel. Ces résultats suggèrent la présence de mécanismes de régulation limitant l'activation des cellules T de manière dépendante de l'affinité du TCR. Le but de cette thèse a été (i) de définir l'impact précis de l'affinité du TCR sur l'activation et la signalisation des cellules T CD8 au niveau moléculaire et (ii) d'acquérir de nouvelles connaissances sur les mécanismes qui régulent et délimitent l'activation et la signalisation maximale des cellules T CD8 optimisées. Spécifiquement, en combinant plusieurs approches technologiques, nous avons caractérisé l'état d'activation de différentes protéines de la voie de signalisation proximale (CD3Ç, Lek et ZAP-70) et distale (ERK1/2) le long du gradient d'affinité du TCR, ainsi que l'internalisation du TCR, une étape clef dans l'activation initiale des cellules T. Les lymphocytes T CD8 exprimant des TCRs d'affinité optimale ont montré des niveaux d'activation augmentés des molécules proximales et distales par rapport aux cellules de type sauvage (wild-type). Nos analyses ont également mis en évidence un paradoxe chez les cellules T CD8 équipées avec des TCRs de très haute affinité. En effet, ces cellules anti-tumorales sont capables d'activer leurs circuits biochimiques au niveau proximal et d'internaliser efficacement leur TCR, mais ne parviennent pas à propager les signaux biochimiques dépendants du TCR jusqu'au niveau distal (via phospho-ERKl/2), avec pour conséquence une limitation de leur capacité fonctionnelle. Finalement, nous avons démontré que SHP-1 et SHP-2, deux phosphatases avec des propriétés régulatrices négatives, étaient majoritairement exprimées dans les cellules T CD8 de très hautes affinités. Une récupération partielle des niveaux d'activation de ERK1/2 a pu être observée après l'inhibition pharmacologique de ces phosphatases. Ces découvertes révèlent la présence de régulateurs moléculaires qui inhibent le complexe de signalisation du TCR très rapidement après la stimulation anti-tumorale. De plus, les cellules T de très hautes affinités ne sont capables d'activer les molécules de la cascade de signalisation proximale que de manière transitoire, suggérant ainsi un second niveau de régulation via l'activation de mécanismes de rétroaction prenant place progressivement au cours du temps et limitant la durée de la signalisation dépendante du TCR. En résumé, la détermination des paramètres impliqués dans l'interaction du TCR-pCMH permettant l'activation de voies de signalisation et des fonctions effectrices optimales ainsi que l'identification des mécanismes de régulation au niveau proximal de la cascade de signalisation du TCR contribuent directement à l'optimisation et au développement de stratégies anti-tumorales basées sur l'ingénierie des TCRs pour le traitement des maladies malignes.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.
Resumo:
Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.
Resumo:
Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.
Resumo:
Cardiovascular disease is the leading cause of death worldwide. Within this subset, coronary artery disease (CAD) is the most prevalent. Magnetic resonance angiography (MRA) is an emerging technique that provides a safe, non-invasive way of assessing CAD progression. To generate contrast between tissues, MR images are weighted according to the magnetic properties of those tissues. In cardiac MRI, T2 contrast, which is governed by the rate of transverse signal loss, is often created through the use of a T2-Preparation module. T2-Preparation, or T2-Prep, is a magnetization preparation scheme used to improve blood/myocardium contrast in cardiac MRI. T2-Prep methods generally use a non-selective +90°, 180°, 180°, -90° train of radiofrequency (RF) pulses (or variant thereof), to tip magnetization into the transverse plane, allow it to evolve, and then to restore it to the longitudinal plane. A key feature in this process is the combination of a +90° and -90° RF pulse. By changing either one of these, a mismatch occurs between signal excitation and restoration. This feature can be exploited to provide additional spectral or spatial selectivity. In this work, both of these possibilities are explored. The first - spectral selectivity - has been examined as a method of improving fat saturation in coronary MRA. The second - spatial selectivity - has been examined as a means of reducing imaging time by decreasing the field of view, and as a method of reducing artefacts originating from the tissues surrounding the heart. Two additional applications, parallel imaging and self-navigation, are also presented. This thesis is thus composed of four sections. The first, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", was originally published in the journal Magnetic Resonance in Medicine (MRM) with co-authors Ruud B. van Heeswijk and Matthias Stuber. The second, "Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", again with co-authors Ruud van Heeswijk and Matthias Stuber, was also published in the journal MRM. The third, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA-accelerated image quality in MRA of the right coronary artery", written with co-authors Jerome Yerly and Matthias Stuber, has been submitted to the "Journal of Cardiovascular Magnetic Resonance", and the fourth, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", with co¬authors Jerome Chaptinel, Giulia Ginami, Gabriele Bonanno, Simone Coppo, Ruud van Heeswijk, Davide Piccini, and Matthias Stuber, is undergoing internal review prior to submission to the journal MRM. -- Les maladies cardiovasculaires sont la cause principale de décès dans le monde : parmi celles-ci, les maladies coronariennes sont les plus répandues. L'angiographie par résonance magnétique (ARM) est une technique émergente qui fournit une manière sûre, non invasive d'évaluer la progression de la coronaropathie. Pour obtenir un contraste entre les tissus, les images d'IRM sont pondérées en fonction des propriétés magnétiques de ces tissus. En IRM cardiaque, le contraste en T2, qui est lié à la décroissance du signal transversal, est souvent créé grâce à l'utilisàtion d'un module de préparation T2. La préparation T2, ou T2-Prep, est un système de préparation de l'aimantation qui est utilisé pour améliorer le contraste entre le sang et le myocarde lors d'une IRM cardiaque. Les méthodes de T2-Prep utilisent généralement une série non-sélective d'impulsions de radiofréquence (RF), typiquement [+ 90°, 180°, 180°, -90°] ou une variante, qui bascule l'aimantation dans le plan transversal, lui permet d'évoluer, puis la restaure dans le plan longitudinal. Un élément clé de ce processus est la combinaison des impulsions RF de +90° et -90°. En changeant l'une ou l'autre des impulsions, un décalage se produit entre l'excitation du signal et de la restauration. Cette fonction peut être exploitée pour fournir une sélectivité spectrale ou spatiale. Dans cette thèse, les deux possibilités sont explorées. La première - la sélectivité spectrale - a été examinée comme une méthode d'améliorer la saturation de la graisse dans l'IRM coronarienne. La deuxième - la sélectivité spatiale - a été étudiée comme un moyen de réduire le temps d'imagerie en diminuant le champ de vue, et comme une méthode de réduction des artefacts provenant des tissus entourant le coeur. Deux applications supplémentaires, l'imagerie parallèle et la self-navigation, sont également présentées. Cette thèse est ainsi composée de quatre sections. La première, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", a été publiée dans la revue médicale Magnetic Resonance .in Medicine (MRM) avec les co-auteurs Ruud B. van Heeswijk et Matthias Stuber. La deuxième, Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", encore une fois avec les co-auteurs Ruud van Heeswijk et Matthias Stuber, a également été publiée dans le journal MRM. La troisième, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA- accelerated image quality in MRA of the right coronary artery", écrite avec les co-auteurs Jérôme Yerly et Matthias Stuber, a été présentée au "Journal of Cardiovascular Magnetic Resonance", et la quatrième, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", avec les co-auteurs Jérôme Chaptinel, Giulia Ginami, Gabriele Bonanno , Simone Coppo, Ruud van Heeswijk, Davide Piccini, et Matthias Stuber, subit un examen interne avant la soumission à la revue MRM.