814 resultados para Caractérisation paysagère
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
L'ARN polymérase 3 transcrit un petit groupe de gènes fortement exprimés et impliqués dans plusieurs mécanismes moléculaires. Les ARNs de transfert ou ARNt représentent plus ou moins la moitié du transcriptome de l'ARN polymérase 3. Ils sont directement impliqués dans la traduction des protéines en agissant comme transporteurs d'acides aminés qui sont incorporés à la chaîne naissante de polypeptides. Chez des levures cultivées dans un milieu jusqu'à épuisement des nutriments, Maf1 réprime la transcription par l'ARN polymérase 3, favorisant ainsi l'économie énergétique cellulaire. Dans un modèle de cellules de mammifères, MAF1 réprime aussi la transcription de l'ARN polymérase 3 dans des conditions de stress, cependant il n'existe aucune donnée quant à son rôle chez un mammifère vivant. Pendant mon doctorat, j'ai utilisé une souris délétée pour le gène Maf1 afin de connaître les effets de ce gène chez un mammifère. Etonnamment, la souris Maf1-‐/-‐ est résistante à l'obésité même si celle-‐ci est nourrie avec une nourriture riche en matières grasses. Des études moléculaires et de métabolomiques ont montré qu'il existe des cycles futiles de production et dégradation des lipides et des ARNt, ce qui entraîne une augmentation de la dépense énergique et favorise la résistance à l'obésité. En plus de la caractérisation de la souris Maf1-‐/-‐, pendant ma thèse j'ai également développé une méthode afin de normaliser les données de ChIP-‐sequencing. Cette méthode est fondée sur l'utilisation d'un contrôle interne, représenté ici par l'ajout d'une quantité fixe de chromatine provenant d'un organisme différent de celui étudié. La méthode a amélioré considérablement la reproductibilité des valeurs entre réplicas biologiques. Elle a aussi révélé des différences entre échantillons issus de conditions différentes. Une occupation supérieure de l'ARN polymérase 3 sur les gènes Pol 3 chez les souris Maf1 KO entraîne une augmentation du niveau de précurseurs d'ARNt, ayant pour effet probable la saturation de la machinerie de maturation des ARNt. En effet, chez les souris Maf1 KO, le pourcentage d'ARNt modifiés est plus faible que chez les souris type sauvage. Ce déséquilibre entre le niveau de précurseurs et d'ARNt matures entraîne une diminution de la traduction protéique. Ces résultats ont permis d'identifier de nouvelles fonctions pour la protéine MAF1, comme étant une protéine régulatrice à la fois de la transcription mais aussi de la traduction et en étant un cible potentielle au traitement à l'obésité. -- RNA polymerase III (Pol 3) transcribes a small set of highly expressed genes involved in different molecular mechanisms. tRNAs account for almost half of the Pol 3 transcriptome and are involved in translation, bringing a new amino into the nascent polypeptide chain. In yeast, under nutrient deprivation, Maf1 acts for cell energetic economy by repressing Pol 3 transcription. In mammalian cells, MAF1 also represses Pol 3 activity under conditions of serum deprivation or DNA damages but nothing is known about its role in a mammalian organism. During my thesis studies, I used a Maf1 KO mouse model to characterize the effects of Maf1 deletion in a living animal. Surprisingly, the MAF1 KO mouse developed an unexpected phenotype, being resistant to high fat diet-‐induced obesity and displaying an extended lifespan. Molecular and metabolomics characterizations revealed futile cycles of lipids and tRNAs, which are produced and immediately degraded, which increases energy consumption in the Maf1 KO mouse and probably explains in part the protection to obesity. Additionally to the mouse characterization, I also developed a method to normalize ChIP-‐seq data, based on the addition of a foreign chromatin to be used as an internal control. The method improved reproducibility between replicates and revealed differences of Pol 3 occupancy between WT and Maf1 KO samples that were not seen without normalization to the internal control. I then established that increased Pol 3 occupancy in the Maf1 KO mouse liver was associated with increased levels of tRNA precursor but not of mature tRNAs, the effective molecules involved in translation. The overproduction of precursor tRNAs associated with the deletion of Maf1 apparently overwhelms the tRNA processing machinery as the Maf1 KO mice have lower levels of fully modified tRNAs. This maturation defect directly impacts on translation efficiency as polysomic fractions and newly synthetized protein levels were reduced in the liver of the Maf1 KO mouse. Altogether, these results indicate new functions for MAF1, a regulator of both transcription and translation as well as a potential target for obesity treatment.
Resumo:
Most aerial parts of the plants are covered by a hydrophobic coating called cuticle. The cuticle is formed of cutin, a complex mixture of esterified fatty acids that are embedded and associated with waxes. The cuticle often appears as a superposition of layers of different composition: The cuticle proper formed of cutin and a mixture of waxes and underneath, the cuticle layer containing cutin, intracuticular waxes and polysaccharides of the cell wall. In addition to its involvement in plant development by preventing organ fusions, the cuticle acts as a barrier to prevent water loss and protect plants against environmental aggressions such as excessive radiation or pathogens attacks. PEC1/AtABCG32 is an ABC transporter from the PDR family involved in cutin biosynthesis. Characterization of the peci mutant in Arabidopsis thaliana showed that PEC1 plays a significant role in the diffusion barrier formation in leaves and petals. The cuticles of leaves and flowers of peci are permeable and the cuticular layer rather than the cuticular proper was altered in the petals, underlining the importance of this particular layer in the maintenance of the diffusion barrier. Chemical analysis on the flower cutin monomer composition of ped mutant revealed a decrease in hydroxylated cutin monomers, suggesting a function of PEC1 in the incorporation of these monomers in the polymer cutin. However, the exact nature of the substrates of PEC1 remained elusive. PEC1 homologues in barley and rice, respectively HvABCG31/EIBI1 and OsABCG31, are also implicated in cuticle biosynthesis. Interestingly, the rice mutant displays more severe phenotypes such as dwarfism and spreading necrosis conducting to the seedling death. In this work, we further characterized osabcg31 mutant and hairpin-RNAi downregulated OsABCG31 plant lines showing reduced growth and cuticle permeability. Our analysis showed a decrease in hydroxylated cutin monomers and severe disruptions in the cuticle, which explain the permeability. Further insights into the function of the cuticle in rice resistance/susceptibility to Pathogens were obtained after inoculation with Magnaporthe oryzae, the fungus responsible for the rice blast disease. Osabcg31 as well as the transgenic lines downregulating OsABCG31 showed increased resistance to the fungus. However, only later steps of infection are reduced . and no impact is obseived on the germination or penetration stages, suggesting that the cuticle disruption per se is not responsible for the resistance. We further investigated the cause of the resistance by analyzing the expression of defense related gene in osabcg31 prior to infection. We found that osabcg31 constitutively express defense related genes, which may explain the resistance, the dwarfism and the cell death. osabcg31 is thus a tool to study the connection between cuticle, plant development and defense signaling networks in rice. The transport function of PEC1 family members is still unknown. In order to link cutin biosynthesis and transport activity, we combined ped mutation with mutations in cutin synthesis related genes. Here, we show that PEC1 acts independently from GPAT4 and GPAT8 pathway and partially overlaps with GPAT6 biosynthesis pathway that leads to the production of hydroxylated C16 cutin precursor 2-Mono(10,16-dihydroxyhexadecanoylJglycerol (2-MHG). In addition, we noticed that despite a comparable cutin monomer composition, ped mutant leaves cuticle are permeable while that of gpat6 mutant are not. This finding raises the possibility of PEC1 being required for the incorporation of C16 hydroxylated monomers and their structural arrangement rather than their direct transport towards the cuticle. A careful investigation of the cuticle permeability, cutin composition and ultrastructure during leave development in Wt plants and ped mutants revealed a possible different regulation of several pathways of cutin biosynthesis and showed the importance of PEC1 function early during leave cuticle maturation. In order to elucidate the transport activity of PEC1, we successfully expressed PEC1 in Nicotiana benthamiana plant system for direct transport experiments. This system will be used to test the PEC 1-dependent transport of potential substrates such as sn-2-monoacylglycerol loaded with a hydroxylated C16 fatty acid. -- Toutes les parties aériennes des plantes sont recouvertes d'une couche hydrophobe appelée «cuticule». Cette cuticule est composée de cutine, un polymère d'acides gras estérifiés, et de cires. La cuticule apparaît souvent sous forme de couches superposées: une première couche extérieure appelée «cuticle proper» formée de cutine et d'un mélange de cires, et une deuxième couche, la «cuticle layer», formée de cutine associée à des cires intracuticulaires et des polysaccharides pariétaux. La cuticule joue le rôle de barrière prévenant contre la perte d'eau et les agressions environnementales. AtABCG32/PEC1 est un transporteur ABC de la famille des PDR impliqué dans la synthèse de la cutine. L'étude du mutant peci d'Arabidopsis thaliana a révélé une fonction de PEC1 dans la formation de la barrière de diffusion. La cuticule des feuilles et fleurs de peci est perméable. Des altérations de la «cuticle layer» ont été démontrées, soulignant son importance dans le maintien de la barrière. L'analyse de la composition de la cutine de peci a montré une réduction spécifique en monomères hydroxylés, suggérant un rôle de PEC1 dans leur incorporation dans la cuticule. Cependant, la nature exacte des substrats de PEC1 n'a pas été identifiée. PEC1 possède deux homologues chez l'orge et le riz, respectivement HvABCG31 et OsABCG31, et qui sont impliqués dans la biosynthèse de la cuticule. Chez le riz, des phénotypes plus sévères ont été observés tels que nanisme et nécroses conduisant à la mort des jeunes plants. Dans cette étude, nous avons continué la caractérisation de osabcg31 ainsi que des lignées de riz sous exprimant le gène OsABCG31 et présentant une cuticule perméable tout en ayant une meilleure croissance. Notre étude a démontré une réduction des monomères hydroxylés de cutine et une désorganisation de la structure de la cuticule, aggravée dans le mutant osabcg31. Ce résultat explique la perméabilité observée. Des mformations P|us approfondies sur l'implication de la cuticule dans la résistance aux pathogènes ont été obtenues après inoculation du mutant osabcg31 et les lignées sous- exprimant OsABCG31 avec une souche virulente de Magnaporthe Oryzae, le champignon responsable de la pyriculariose du riz. Les différentes lignées testées ont démontré une résistance au pathogène. Cependant, seules les étapes tardives de l'infection sont réduites et aucun impact n'est observé sur la germination des spores ou la pénétration du champignon, suggérant que les modifications de la cuticule ne sont pas directement à l'origine de la résistance. L'analyse de l'expression de gènes impliqués dans la résistance à Magnaporthe.oryzae a mis en évidence l'expression constitutive de ces gènes en l'absence de tout contact avec le pathogène. Ceci explique la résistance, le nanisme et la mort cellulaire observés. Ainsi, osabcg31 représente un outil efficace pour l'étude intégrée des systèmes de régulation de la défense, de développement des plantes et la cuticule. La nature des substrats transportés par PEC1/AtABCG32 reste inconnue. Dans le but d'établir une liaison entre biosynthèse de cutine et transport des précurseurs par PEC1, la mutation peci a été combinée avec des mutants impliqués dans différentes voies de biosynthèse. Cette étude a démontré une fonction indépendante de PEC1 de la voie de biosynthèse impliquant les enzymes GPAT4 et GPAT8, et une fonction partiellement indépendante de la voie impliquant GPAT6 qui mène à la production de précurseurs sn-2- monoacylglycerol chargés en acides gras en C16 (2-MHG). De plus, malgré un profil similaire en monomères de cutine, gpat6 conserve une cuticule imperméable alors que celle de PEC1 est perméable. Ceci suggère que PEC1 est nécessaire à l'incorporation des monomères en C16 et leur arrangement structurel plutôt que simplement à leur transport direct. L'étude approfondie de la perméabilité cuticulaire, de la structure ainsi que de la composition en cutine pendant le développement des feuilles de peci et la plante sauvage a révélé l'existence de différentes régulations des voies de biosynthèses des monomères et a démontré l'importance de PEC1 dans les premières étapes de la mise en place de la cuticule. Pour identifier les substrats transportés, l'expression de PEC1 chez le système hétérologue Nicotiana benthamiana a été conduite avec succès. Ce système sera utilisé pour tester le transport de substrats potentiels tels que le sn-2-monoacylglycerol chargé en acide gras en C16.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
L'adoption de l'IRM dans le parcours diagnostique a déterminé la transition des biopsies aléatoires aux biopsies ciblées vers les lésions visibles à l'imagerie. L'utilisation de logiciels rendant possible la fusion d'images IRM et échographiques permet d'améliorer significativement la précision diagnostique de ces biopsies. De plus, pour déterminer l'éligibilité d'un patient à une thérapie focale, davantage de précision diagnostique est requise au niveau de toute la glande ; par conséquent, des biopsies avec une densité d'échantillonnage plus élevée par voie transpérinéale peuvent être proposées.Les nouvelles techniques de biopsie de la prostate permettent une prise en charge personnalisée grâce à une meilleure caractérisation de l'agressivité et de l'extension locale du cancer de la prostate. The adoption of multiparametric MRI within the diagnostic pathway has allowed urologists to move from random biopsy to targeted biopsy directed towards MR-visible lesions. The use of software for MR to TRUS fusion may enhance the diagnostic accuracy of targeted biopsy. To determine the eligibility for tissue-preserving approaches, further precision is required, and template prostate mapping biopsy may be offered. The employment of novel biopsy techniques provide better characterisation of the disease, and allows a tailored approach to a single subject.
Resumo:
A contingent contract in a transferable utility game under uncertainty specifies an outcome for each possible state. It is assumed that coalitions evaluate these contracts by considering the minimal possible excesses. A main question of the paper concerns the existence and characterization of efficient contracts. It is shown that they exist if and only if the set of possible coalitions contains a balanced subset. Moreover, a characterization of values that result in efficient contracts in the case of minimally balanced collections is provided.
Resumo:
We study the problem of locating two public goods for a group of agents with single-peaked preferences over an interval. An alternative specifies a location for each public good. In Miyagawa (1998), each agent consumes only his most preferred public good without rivalry. We extend preferences lexicographically and characterize the class of single-peaked preference rules by Pareto-optimality and replacement-domination. This result is considerably different from the corresponding characterization by Miyagawa (2001a).
Resumo:
Département de linguistique et de traduction
Resumo:
Cette étude a été commandée dans le cadre des travaux de la Table de concertation du Bureau du Mont-Royal, dans le contexte de la désignation du mont Royal comme arrondissement historique et naturel, par la Commission des biens culturels du Québec.
Resumo:
Introduction. Plusieurs maladies neurodégénératives bénéficieraient de meilleures ap-proches diagnostiques, dont la maladie d’Alzheimer. Celle-ci affecte en particulier les systèmes cholinergiques du SNC, et de nombreuses études d’imagerie ont tenté d’évaluer la dégénérescence de ce système à des fins diagnostiques, à l’aide de ligands radioactifs de diverses composantes du système ACh. En définitive, la plupart de ces études ne se sont pas montrées satisfaisantes. À la recherche de meilleures approches dans ce domaine, nous avons décidé d’évaluer les possibilités offertes par le (-)-[18F]Fluoroethoxy-benzovesamicol ((-)-[18F]FEOBV), un agent émetteur de positons se liant au VAChT de façon spécifique et réversible. Avant d’en arriver à une utilisation humaine cependant, une validation animale en plusieurs étapes s’avère nécessaire, mais celle-ci nous est apparue justifiée à la lumière de résultats d’études préliminaires en TEP chez le rat, qui se sont montrées très prometteuses. Nous nous sommes donc attaqués à la caractérisation du métabolisme de cet agent. Ceci a exigé, dans un premier temps, la mise au point d’une méthode chromatographique d’analyse des métabolites sanguins et, dans un deuxième temps, l’évaluation de ces métabolites et de leur cinétique chez le rat. Ces données permettront ultérieurement, chez l’humain, de procéder à des études quantitatives en TEP. Étude #1: Une fois les paramètres chromatographiques optimisés, le TR du (–)-FEOBV fut établi à 7.92 ± 0.18 minutes. Étude #2 : Le métabolisme in vivo s’est montré très rapide et temporellement variable, mais un seul métabolite hydrophile a été identifié. La fonction d’apport au cerveau du (–)-[18F]FEOBV a pu être établie après correction pour la présence du métabolite détecté. Conclusion. Dans l’ensemble, le (–)-[18F]FEOBV semble très prometteur en tant que marqueur biologique du système cholinergique pré-synaptique.
Resumo:
Le virus Epstein-Barr (VEB) est fortement associé au développement de syndromes lymphoprolifératifs (SLP) en greffe pédiatrique. Ce virus a la capacité d’immortaliser les lymphocytes B et de provoquer leur prolifération incontrôlée chez l’hôte immunodéprimé. Plusieurs études démontrent que le cycle lytique du virus jouerait un rôle primordial dans la genèse des SLP en produisant des particules virales pouvant infecter les cellules B adjacentes. Chez un individu immunodéprimé, ces cellules B nouvellement infectées peuvent donner naissance à une expansion lymphocytaire. Le projet présenté dans ce mémoire fait partie d’un programme de recherche visant à élucider le rôle de l’infection productive par le VEB dans le développement des SLP. L’objectif précis de ce projet est de développer un anticorps monoclonal chimère contre la glycoprotéine gp350 du VEB dans le but de neutraliser le virus et d’ainsi prévenir son entrée dans les cellules B. Notre laboratoire a construit une version chimère de l’anticorps monoclonal murin 72A1, lequel se lie à la gp350 et bloque l’infection. Les premiers essais ont révélé la présence de chaînes non fonctionnelles (aberrantes) dans l’hybridome produisant l’anticorps 72A1. La construction de la chaîne légère authentique est maintenant complète alors que celle de la chaîne lourde est toujours en cours. Le processus de caractérisation de l’anticorps chimère inclura des essais de cytotoxicité à médiation cellulaire dépendante des anticorps (ADCC). Dans cette optique, une lignée cellulaire exprimant de façon stable la gp350 a été établie. Notre anticorps chimère anti-gp350 pourrait éventuellement être utilisé comme thérapie préventive chez les greffés présentant un risque élevé de SLP en empêchant l’infection des cellules B adjacentes.
Resumo:
L’ostéoarthrose (OA) est une maladie articulaire invalidante caractérisée par la perte de l’intégrité du cartilage articulaire. Les recherches tentent de comprendre les mécanismes moléculaires de la maladie afin de trouver des inhibiteurs efficaces pouvant prévenir la dégradation du cartilage articulaire. Les BMPs (bone morphogenic proteins) jouent un rôle dans le processus pathophysiologique de cette maladie. Cette étude cible le rôle d’un antagoniste des BMPs, le gremlin. Nous avons étudié la régulation de l’expression de gremlin par le clonage et la caractérisation de son promoteur et en déterminant si gremlin pouvait jouer un rôle autre qu’antagoniste des BMP, en affectant l’expression d’autres gènes par l’activation d’une cascade de signalisation dans la cellule. Les résultats ont identifié une région importante dans le promoteur de gremlin qui affecte son activité basale et induite, et ont montré que le gremlin ne pouvait pas affecter l’expression génique et l’activation de signalisation intracellulaire indépendamment des BMPs. Cette étude démontre que le rôle de gremlin dans l’OA en est un essentiellement d’antagoniste des BMPs.
Resumo:
La plasticité synaptique est une importante propriété du système nerveux, impliquée dans l’intégration de l’information. Cette plasticité a généralement été décrite par des changements aux niveaux pré et postsynaptiques. Notamment, l’efficacité présynaptique, soit la probabilité de libération de neurotransmetteurs associée au contenu quantique d’une synapse, peut être augmentée ou diminuée selon l’activité antérieure de la synapse. Malgré cette caractérisation, les mécanismes à l’origine de la détermination de l’efficacité présynaptique demeurent obscurs. Également, la plasticité synaptique reste encore mal définie au niveau glial, limitant, de ce fait, notre compréhension de l’intégration de l’information. Pourtant, la dernière décennie a mené à une redéfinition du rôle des cellules gliales. Autrefois reléguées à un rôle de support passif aux neurones, elles sont désormais reconnues comme étant impliquées dans la régulation de la neurotransmission. Notamment, à la jonction neuromusculaire (JNM), les cellules de Schwann périsynaptiques (CSPs) sont reconnues pour moduler l’efficacité présynaptique et les phénomènes de plasticité. Un tel rôle actif dans la modulation de la neurotransmission implique cependant que les CSPs soient en mesure de s’adapter aux besoins changeants des JNMs auxquelles elles sont associées. La plasticité synaptique devrait donc sous-tendre une forme de plasticité gliale. Nous savons, en effet, que la JNM est capable de modifications tant morphologiques que physiologiques en réponse à des altérations de l'activité synaptique. Par exemple, la stimulation chronique des terminaisons nerveuses entraîne une diminution persistante de l’efficacité présynaptique et une augmentation de la résistance à la dépression. À l’opposé, le blocage chronique des récepteurs nicotiniques entraîne une augmentation prolongée de l’efficacité présynaptique. Aussi, compte tenu que les CSPs détectent et répondent à la neurotransmission et qu’elles réagissent à certains stimuli environnementaux par des changements morphologiques, physiologiques et d’expression génique, nous proposons que le changement d'efficacité présynaptique imposé à la synapse, soit par une stimulation nerveuse chronique ou par blocage chronique des récepteurs nicotiniques, résulte en une adaptation des propriétés des CSPs. Cette thèse propose donc d’étudier, en parallèle, la plasticité présynaptique et gliale à long-terme, en réponse à un changement chronique de l’activité synaptique, à la JNM d’amphibien. Nos résultats démontrent les adaptations présynaptiques de l’efficacité présynaptique, des phénomènes de plasticité à court-terme, du contenu mitochondrial et de la signalisation calcique. De même, ils révèlent différentes adaptations gliales, notamment au niveau de la sensibilité des CSPs aux neurotransmetteurs et des propriétés de leur réponse calcique. Les adaptations présynaptiques et gliales sont discutées, en parallèle, en termes de mécanismes et de fonctions possibles dans la régulation de la neurotransmission. Nos travaux confirment donc la coïncidence de la plasticité présynaptique et gliale et, en ce sens, soulèvent l’importance des adaptations gliales pour le maintien de la fonction synaptique.