1000 resultados para Modèle transactionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Fondement : le développement de solutions d'hydroxy-éthyl-amidons (HEAS) avec peu d'impact sur la coagulation sanguine, mais un effet supérieur sur la volémie, par comparaison aux HEAS couramment utilisés, est d'un grand intérêt clinique. Nous posons l'hypothèse que des solutions de haut poids moléculaire et de bas degré de substitution possèdent ces caractéristiques. Méthode : trente porcs ont été perfusés avec trois HEAS différents (20 ml/kg) de même degré de substitution (0.42) mais de poids moléculaire différent (130, 500 et 900 kDa). Une série de prélèvements sanguins ont été effectués sur 24 heures, sur lesquels des analyses de coagulation sanguine étaient effectuées par thromboélastographie et dosages plasmatiques. De plus, la concentration plasmatique ainsi que le poids moléculaire in vivo ont été déterminés, ainsi que des paramètres de pharmacocinétiques, ceci en se basant sur un modèle bi-compartimental. Résultats : les analyses de thromboélastographie et les tests de coagulation plasmatique n'ont pas démontré d'altération plus marquée de la coagulation sanguine après l'utilisation des solutions des HAES 500 et HAES 900, par comparaison avec celle de HAES 130. Par contre, les HAES 500 et HAES 900 ont présenté une plus grande aire sous la courbe (area under the curve), dans la relation concentration en fonction du temps [1542 (142) g min litre-1, p<0.001, 1701 (321) g min litre-1, p<0.001] par rapport au HAES 130 [1156 (223) g min litre-1]. La demi-vie alpha (t ½α) était plus longue pour les HAES 500 [53.8 (8.6) min, p<0.01] et HAES 900 [57.1 (12.3) min, p<0.01 ]que pour le HAES 130 [39.9 (10.7) min]. La demi-vie beta (t½β) était par contre similaire pour les trois types de HAES [de 332 (100) à 381 (63) min]. Conclusions : pour les HAES de bas degré de substitution, le poids moléculaire n'est pas un facteur clé en ce qui concerne l'altération de la coagulation. La persistance intravasculaire initialement plus longue des HAES de haut poids moléculaire et bas degré de substitution pourrait résulter dans un plus long effet volémique de ces substances. Abstract Background: The development of hydroxyethyl starches (HES) with low impact on blood coagulation but higher volume effect compared with the currently used HES solutions is of clinical interest. We hypothesized that high molecular weight, low-substituted HES might possess these properties. Methods: Thirty pigs were infused with three different HES solutions (20 ml kg-1) with the same degree of molar substitution (0.42) but different molecular weights (130, 500 and 900 kDa). Serial blood samples were taken over 24 h and blood coagulation was assessed by Thromboelastograph® analysis and analysis of plasma coagulation. In addition, plasma concentration and in vivo molecular weight were determined and pharmacokinetic data were computed based on a two-compartment model. Results: Thromboelastograph analysis and plasma coagulation tests did not reveal a more pronounced alteration of blood coagulation with HES 500 and HES 900 compared with HES 130. In contrast, HES 500 and HES 900 had a greater area under the plasma concentration-time curve [1542 (142) g min litre-1, P<0.001, 1701 (321) g min litre-1, P<0.001] than HES 130 [I 156 (223) g min litre-1] and alpha half life (t ½α) was longer for HES 500 [53.8 (8.6) min, P<0.01 ] and HES 900 [57. I (I 2.3) min, P<0.01 ] than for HES 130 [39.9 (I 0.7) min]. Beta half life (t½β), however, was similar for all three types of HES [from 332 (100) to 381 (63) min]. Conclusions. In low-substituted HES, molecular weight is not a key factor in compromising blood coagulation. The longer initial intravascular persistence of high molecular weight lowsubstituted HES might result in a longer lasting volume effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many organelles exist in an equilibrium of fragmentation into smaller units and fusion into larger structures, which is coordinated with cell division, the increase in cell mass, and envi¬ronmental conditions. In yeast cells, organelle homeostasis can be studied using the yeast vacuole (lysosome) as a model system. Yeast vacuoles are the main compartment for degrada¬tion of cellular proteins and storage of nutrients, ions and metabolites. Fission and fusion of vacuoles can be induced by hyper- and hypotonic shock in vivo, respectively, and have also been reconstituted in vitro using isolated vacuoles. The conserved serine/threonine kinase TOR (target of rapamycin) is a central nutrient sensor and regulates cell growth and metabolism. In yeast, there are two TOR proteins, Torlp and Tor2p, which are part of larger protein complexes, TORCI and TORC2. Only TORCI is rapamycin-sensitive. Disregulation of TOR signaling is linked to a multitude of diseases in humans, e.g. cancer, neurodegenerative diseases and metabolic syndrome. It has been shown that TORCI localizes to the vacuole membrane, and recent findings of our laboratory demonstrated that TORCI positively regulates vacuole fragmentation. This suggests that the fragmentation machinery should contain target proteins phosphorylated by TORCI. I explored the rapamycin-and fission-dependent vacuolar phosphoproteome during frag¬mentation, using a label-free mass-spectrometry approach. I identified many vacuolar factors whose phosphorylation was downregulated in a TORCI- and fission-dependent manner. Among them were known protein complexes that are functionally linked to fission or fusion, like the HOPS, VTC and FAB1 complexes. Hence, TORCI-dependent phosphorylations might positively regulate vacuole fission. Several candidates were chosen for detailed microscopic analysis of in vivo vacuole frag-mentation, using deletion mutants. I was able to identify novel factors not previously linked to fission phenotypes, e.g. the SEA complex, Pib2, and several vacuolar amino acid transporters. Transport of neutral and basic amino acids across the membrane seems to control vacuole fission, possibly via TORCI. I analyzed vacuolar fluxes of amino acids in wildtype yeast cells and found evidence for a selective vacuolar export of basic amino acids upon hyperosmotic stress. This leads me to propose a model where vacuolar export of amino acids is necessary to reshape the organelle under salt stress. - Le nombre et la taille de certaines organelles peut être déterminé par un équilibre entre la fragmentation qui produit des unités plus petites et la fusion qui génère des structures plus larges. Cet équilibre est coordonné avec la division cellulaire, l'augmentation de la masse cellulaire, et les conditions environnementales. Dans des cellules de levure, l'homéostasie des organelles peut être étudié à l'aide d'un système modèle, la vacuole de levure (lysosome). Les vacuoles constituent le principal compartiment de la dégradation des protéines et de stockage des nutriments, des ions et des métabolites. La fragmentation et la fusion des vacuoles peuvent être respectivement induites par un traitement hyper- ou hypo-tonique dans les cellules vivantes. Ces processus ont également été reconstitués in vitro en utilisant des vacuoles isolées. La sérine/thréonine kinase conservée TOR (target of rapamycin/cible de la rapamycine) est un senseur de nutriments majeur qui régule la croissance cellulaire et le métabolisme. Chez la levure, il existe deux protéines TOR, Torlp et Tor2p, qui sont les constituants de plus grands complexes de protéines, TORCI et TORC2. TORCI est spécifiquement inhibé par la rapamycine. Une dysrégulation de la signalisation de TOR est liée à une multitude de maladies chez l'homme comme le cancer, les maladies neurodégénératives et le syndrome métabolique. Il a été montré que TORCI se localise à la membrane vacuolaire et les découvertes récentes de notre laboratoire ont montré que TORCI régule positivement la fragmentation de la vacuole. Ceci suggère que le mécanisme de fragmentation doit être contrôlé par la phosphorylation de certaines protéines cibles de TORCI. J'ai exploré le phosphoprotéome vacuolaire lors de la fragmentation, en présence ou absence de rapamycine et dans des conditions provoquant la fragmentation des organelles. La méthode choisie pour réaliser la première partie de ce projet a été la spectrométrie de masse différentielle sans marquage. J'ai ainsi identifié plusieurs facteurs vacuolaires dont la phosphorylation est régulée d'une manière dépendante de TORCI et de la fragmentation. Parmi ces facteurs, des complexes protéiques connus qui sont fonctionnellement liées à fragmentation ou la fusion, comme les complexes HOPS, VTC et FAB1 ont été mis en évidence. Par conséquent, la phosphorylation dépendante de TORCI peut réguler positivement la fragmentation des vacuoles. Plusieurs candidats ont été choisis pour une analyse microscopique détaillée de la fragmentation vacuolaire in vivo en utilisant des mutants de délétion. J'ai été en mesure d'identifier de nouveaux facteurs qui n'avaient pas été encore associés à des phénotypes de fragmentation tels que les complexes SEA, Pib2p, ainsi que plusieurs transporteurs vacuolaires d'acides aminés. Le transport des acides aminés à travers la membrane semble contrôler la fragmentation de la vacuole. Puisque ces transporteurs sont phosphorylés par TORCI, ces résultats semblent confirmer la

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer colorectal est la 3ème cause de décès liée au cancer dans l'Europe de l'Ouest et nécessite une prise en charge pluridisciplinaire. Les thérapies anticancéreuses récentes développées visent à inhiber les voies de signalisation cellulaires responsables de la prolifération des cellules tumorales. L'inhibition de la voie de signalisation cellulaire mTOR, est une stratégie prometteuse. En effet, mTOR est souvent suractivé dans les cellules du cancer colorectal et régule la croissance, la prolifération et la survie cellulaire. De nombreuses études récentes ont démontrés l'importance de l'activité de mTOR dans le développement du cancer colorectal et l'efficacité anti-tumorale des inhibiteurs allostériques de mTOR, telle que la rapamycine. Récemment, une nouvelle classe d'inhibiteur de mTOR, notamment PP242 et NVP-BEZ235, agissant comme inhibiteur ATP- compétitif a été développée. L'efficacité de ces inhibiteurs n'a pas été démontrée dans le contexte du cancer colorectal. Dans cette étude, nous avons comparé l'effet de PP242, un inhibiteur ATP-compétitif de mTOR et NVP-BEZ235, un inhibiteur dual de PI3K/mTOR par rapport à la rapamycine. Nous avons étudié, in vitro, leur effet sur la croissance, la prolifération et la survie cellulaire sur des lignées cellulaires du cancer du colon (LS174, SW480 et DLD-1) et, in vivo, sur la croissance de xénogreffes dans un modèle murin. Nous avons émis l'hypothèse que l'effet des ces nouveaux inhibiteurs seraient plus importants qu'avec la rapamycine. Nous avons observé que le PP242 et le NVP-BEZ235 réduisent significativement et de façon plus marquée que la rapamycine la croissance, la prolifération et la survie cellulaire des cellules LS174T et DLD-1. Ces inhibiteurs réduisent également la prolifération et la survie cellulaire des cellules SW480 alors que celles-ci étaient résistantes à la rapamycine. Nous avons également observé que les inhibiteurs PP242 et NVP-BEZ235 réduisaient la croissance des xénogreffes avec les lignées cellulaires LS174 et SW480. Finalement, nous avons remarqué que l'effet anti-tumoral des inhibiteurs ATP-compétitifs de mTOR était potentialisé par l'U0126, un inhibiteur de MEK/MAPK, souvent activé dans les voies de signalisation cellulaire du cancer colorectal. En conclusion, nous avons observé que les inhibiteurs ATP-compétitifs de mTOR bloquent la croissance de cellules tumorales du cancer colorectal in vitro et in vivo. Ces résultats démontrent que ces inhibiteurs représentent une option thérapeutique prometteuse dans le traitement du cancer colorectal et méritent d'être évalués dans des études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : l .Objectif Evaluer l'effet qu'ont les consignes d'utilisation régulière d'un spray nasal à la nicotine sur leur véritable utilisation durant les 3 premières semaines d'un sevrage tabagique. Un objectif secondaire est d'évaluer l'effet des consignes d'utilisation régulière du spray durant les premières semaines de sevrage tabagique sur le taux de succès à 6 mois par rapport à un groupe pouvant utiliser le spray « ad libitum ». 2. Méthode II s'agit d'une étude ouverte, randomisée contrôlée, incluant 50 patients présentant une dépendance nicotinique forte, se trouvant en phase de préparation selon le modèle transthéorique du changement de Prochaska et Di Clemente, recrutés au sein de la consultation «stop tabac » de la Policlinique Médicale Universitaire de Lausanne. Dans le groupe «contrôle », les patients ont été instruits à utiliser le spray « ad libitum », soit dès qu'apparaissaient des envies irrésistibles de fumer, tandis que le groupe «intervention » a reçu pour consigne d'utiliser le spray au moins 1 fois par heure dès le lever, voire plus en cas d'envie de fumer. L'utilisation du spray nasal a été enregistrée par un dispositif électronique fixé sur le spray (MDILogTM) durant les 3 premières semaines d'utilisation. Durant le suivi, l'abstinence tabagique a été vérifiée par une mesure du taux de CO expiré par un appareil spécifique (Bedfont Smokerlyzer). L'abstinence tabagique a été considérée comme un succès si le taux de CO était s 10 ppm (particules par million). 3. Résultats Un patient a été perdu durant le suivi. Au moment de la randomisation, le groupe «intervention » comprenait plus de femmes, des patients ayant un nombre plus grand de précédentes tentatives d'arrêt du tabagisme, plus de co-morbidités psychiatriques, mais moins de co-morbidités somatiques que le groupe «contrôle ». Dans les 2 groupes, les participants ont utilisé le spray nasal plus de 8 fois par jour (minimum demandé dans le groupe intervention). L'utilisation moyenne du spray était de 13,6 doses/jour pour le groupe «intervention » et de 1 l,l doses/jour pour le groupe contrôle. Ajusté aux différences entre les 2 groupes, la différence entre les doses plus importantes utilisées dans le groupe «intervention »par rapport à celles du groupe « ad libitum »reste non significative durant la première (0.8 ; CI 95% -5.1 ; 6,7), la deuxième (4.0 ; CI 95% -1.9 ; 9.9) et la troisième semaine (3.0 ; CI 95% -2.5 ; 8.5). De même, le fait d'instruire le patient à utiliser chaque heure le spray nasal durant les premières semaines n'a pas eu d'impact sur le taux de succès à 6 mois (RR = 0.69 ; CI 95% 0.34 ; 1.39). 4. Conclusions Cette étude négative montre que les différences d'utilisation du spray nasal nicotinique sont plus dépendantes des caractéristiques individuelles du patient que des recommandations d'utilisation du thérapeute. Les patients présentant un syndrome de dépendance à la nicotine forte utilisent spontanément de manière importante le spray nasal nicotinique, indépendamment des recommandations données. Pour les patients présentant un syndrome de dépendance à la nicotine forte, les recommandations par le thérapeute d'utiliser le spray nasal dès l'apparition d'envies de fumer semblent être la manière de faire la plus adéquate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In mammals, the presence of excitable cells in muscles, heart and nervous system is crucial and allows fast conduction of numerous biological information over long distances through the generation of action potentials (AP). Voltage-gated sodium channels (Navs) are key players in the generation and propagation of AP as they are responsible for the rising phase of the AP. Navs are heteromeric proteins composed of a large pore-forming a-subunit (Nav) and smaller ß-auxiliary subunits. There are ten genes encoding for Navl.l to Nav1.9 and NaX channels, each possessing its own specific biophysical properties. The excitable cells express differential combinations of Navs isoforms, generating a distinct electrophysiological signature. Noteworthy, only when anchored at the membrane are Navs functional and are participating in sodium conductance. In addition to the intrinsic properties of Navs, numerous regulatory proteins influence the sodium current. Some proteins will enhance stabilization of membrane Navs while others will favour internalization. Maintaining equilibrium between the two is of crucial importance for controlling cellular excitability. The E3 ubiquitin ligase Nedd4-2 is a well-characterized enzyme that negatively regulates the turnover of many membrane proteins including Navs. On the other hand, ß-subunits are known since long to stabilize Navs membrane anchoring. Peripheral neuropathic pain is a disabling condition resulting from nerve injury. It is characterized by the dysregulation of Navs expressed in dorsal root ganglion (DRG) sensory neurons as highlighted in different animal models of neuropathic pain. Among Navs, Nav1.7 and Nav1.8 are abundantly and specifically expressed in DRG sensory neurons and have been recurrently incriminated in nociception and neuropathic pain development. Using the spared nerve injury (SNI) experimental model of neuropathic pain in mice, I observed a specific reduction of Nedd4-2 in DRG sensory neurons. This decrease subsequently led to an upregulation of Nav1.7 and Nav1.8 protein and current, in the axon and the DRG neurons, respectively, and was sufficient to generate neuropathic pain-associated hyperexcitability. Knocking out Nedd4-2 specifically in nociceptive neurons led to the same increase of Nav1.7 and Nav1.8 concomitantly with an increased thermal sensitivity in mice. Conversely, rescuing Nedd4-2 downregulation using viral vector transfer attenuated neuropathic pain mechanical hypersensitivity. This study demonstrates the significant role of Nedd4-2 in regulating cellular excitability in vivo and its involvement in neuropathic pain development. The role of ß-subunits in neuropathic pain was already demonstrated in our research group. Because of their stabilization role, the increase of ßl, ß2 and ß3 subunits in DRGs after SNI led to increased Navs anchored at the membrane. Here, I report a novel mechanism of regulation of a-subunits by ß- subunits in vitro; ßl and ß3-subunits modulate the glycosylation pattern of Nav1.7, which might account for stabilization of its membrane expression. This opens new perspectives for investigation Navs state of glycosylation in ß-subunits dependent diseases, such as in neuropathic pain. - Chez les mammifères, la présence de cellules excitables dans les muscles, le coeur et le système nerveux est cruciale; elle permet la conduction rapide de nombreuses informations sur de longues distances grâce à la génération de potentiels d'action (PA). Les canaux sodiques voltage-dépendants (Navs) sont des participants importants dans la génération et la propagation des PA car ils sont responsables de la phase initiale de dépolarisation du PA. Les Navs sont des protéines hétéromériques composées d'une grande sous-unité a (formant le pore du canal) et de petites sous-unités ß accompagnatrices. Il existe dix gènes qui codent pour les canaux sodiques, du Nav 1.1 au Nav 1.9 ainsi que NaX, chacun possédant des propriétés biophysiques spécifiques. Les cellules excitables expriment différentes combinaisons des différents isoformes de Navs, qui engendrent une signature électrophysiologique distincte. Les Navs ne sont fonctionnels et ne participent à la conductibilité du Na+, que s'ils sont ancrés à la membrane plasmique. En plus des propriétés intrinsèques des Navs, de nombreuses protéines régulatrices influencent également le courant sodique. Certaines protéines vont favoriser l'ancrage et la stabilisation des Navs exprimés à la membrane, alors que d'autres vont plutôt favoriser leur internalisation. Maintenir l'équilibre des deux processus est crucial pour contrôler l'excitabilité cellulaire. Dans ce contexte, Nedd4-2, de la famille des E3 ubiquitin ligase, est une enzyme bien caractérisée qui régule l'internalisation de nombreuses protéines, notamment celle des Navs. Inversement, les sous-unités ß sont connues depuis longtemps pour stabiliser l'ancrage des Navs à la membrane. La douleur neuropathique périphérique est une condition débilitante résultant d'une atteinte à un nerf. Elle est caractérisée par la dérégulation des Navs exprimés dans les neurones sensoriels du ganglion spinal (DRG). Ceci a été démontré à de multiples occasions dans divers modèles animaux de douleur neuropathique. Parmi les Navs, Nav1.7 et Nav1.8 sont abondamment et spécifiquement exprimés dans les neurones sensoriels des DRG et ont été impliqués de façon récurrente dans le développement de la douleur neuropathique. En utilisant le modèle animal de douleur neuropathique d'épargne du nerf sural (spared nerve injury, SNI) chez la souris, j'ai observé une réduction spécifique des Nedd4-2 dans les neurones sensoriels du DRG. Cette diminution avait pour conséquence l'augmentation de l'expression des protéines et des courants de Nav 1.7 et Nav 1.8, respectivement dans l'axone et les neurones du DRG, et était donc suffisante pour créer l'hyperexcitabilité associée à la douleur neuropathique. L'invalidation pour le gène codant pour Nedd4-2 dans une lignée de souris génétiquement modifiées a conduit à de similaires augmentations de Nav1.7 et Nav1.8, parallèlement à une augmentation à la sensibilité thermique. A l'opposé, rétablir une expression normale de Nedd4-2 en utilisant un vecteur viral a eu pour effet de contrecarrer le développement de l'hypersensibilité mécanique lié à ce modèle de douleur neuropathique. Cette étude démontre le rôle important de Nedd4-2 dans la régulation de l'excitabilité cellulaire in vivo et son implication dans le développement des douleurs neuropathiques. Le rôle des sous-unités ß dans les douleurs neuropathiques a déjà été démontré dans notre groupe de recherche. A cause de leur rôle stabilisateur, l'augmentation des sous-unités ßl, ß2 et ß3 dans les DRG après SNI, conduit à une augmentation des Navs ancrés à la membrane. Dans mon travail de thèse, j'ai observé un nouveau mécanisme de régulation des sous-unités a par les sous-unités ß in vitro. Les sous-unités ßl et ß3 régulent l'état de glycosylation du canal Nav1.7, et stabilisent son expression membranaire. Ceci ouvre de nouvelles perspectives dans l'investigation de l'état de glycosylation des Navs dans des maladies impliquant les sous-unités ß, notamment les douleurs neuropathiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ÁBSTRACT : Mammary gland is composed of two main epithelial cell types, myoepithelial and luminal. The mechanisms involved in determination and maintenance of them remain poorly understood. Notch signaling is known to regulate cell fate determination in other tissues like skin and nervous system. It was also shown that it can act as tumor suppressor or oncogene depending on the tissue type. The mouse models overexpressing active Notch receptors indicated that Notch signaling is oncogenic in the mammary gland. This observation was followed by some descriptive and functional studies in human breast cancer and it was reported that Notch signaling activity or expression of its components are increased in some of the breast tumor samples compared to normal tissue. However, the physiological role of the Notch signaling and its downstream mechanisms in mammary gland is poorly defined. p63, a member of p53 family, has been implicated in the cell fate determination of keratinocytes. Knockout mouse models revealed that p63 is required for the formation of the mammary anlagen in embryo and its ΔN isoform is expressed exclusively in the myoepithelial layer of the adult breast. In order to understand its function in normal breast epithelial cells, I activated Notch signaling by expression of Notch1 intracellular domain (NICD) in normal primary human breast epithelial cells (HBECs). In this context, NICD reduced growth of HBECs and led to downmodulation of extracellular matrix-receptor interaction network (ECM) components as well as ΔNp63. Expression of ΔNp63 together with NICD partially rescued Notch induced growth reduction, which was correlated with an increase in ECM components. Moreover, silencing ΔNp63 in myoepithelial HBECs reduced growth similar to Notch activation and it led to downregulation of myoepithelial and upregulation of luminal markers. Complementing this observation, forced expression of ONp63 in luminal HBECs induced myoepithelial phenotype and decreased luminal markers. In vivo, by the analysis of a Notch reporter mouse strain, I showed that Notch is activated during puberty specifically at the sites of ductal morphogenesis, terminal end buds. FAGS analysis revealed that it can be detected in two different populations based on CD24 expression (low (lo) or high (high)): at lower levels in CD24lo, which includes stem/progenitor and myoepithelial cells and higher levels in CD24hi, which contains luminal cells. In parallel with in vitro results, the CD24lo mouse mammary epithelial cells displaying Notch activity have lower levels of p63 expression. Furthermore, deletion of RBPjk, the main mediator of Notch signaling, or the overexpression of ΔNp63 inhibited luminal cell lineage in vivo. Another important point revealed by Notch reporter mouse strain is the simultaneous activation of Notch with estrogen signaling during pubertal development. The expression of FOXA1, the mediator of estrogen receptor (ER) transcriptional activity, is correlated with Notch activation in vivo that it is lower in CD24lo than in CD24hi cells. Moreover, FOXA1 is regulated by NICD in vitro supporting the presence of a link between Notch and ER signaling. Taken together, I report that Notch signaling is involved in luminal cell fate determination and its effects are partially mediated through inhibition of ONp63. Besides, ΔNp63 is required for the maintenance and sufficient for the induction of myoepithelial phenotype in HBECs in vitro and is not compatible with luminal lineage in vivo. Based on these results, I propose a model for epithelial cell hierarchy in mammary gland, whereby there are two different types of luminal progenitors, early and late, displaying different levels of Notch activity. Notch signaling contributes to the determination of luminal cell lineage in these two progenitor steps: In "Early Luminal Progenitor" stage, it inhibits myoepithelial fate by decreasing p63 expression, and in "Late Luminal Progenitor" stage, Notch signaling is involved in induction of luminal lineage by acting on ER-FOXA1 axis. It has to be investigated further whether Notch signaling might behave as an oncogene or tumor suppressor depending on which cell type in the epithelial hierarchy it is modulated and which one is more likely to occur in different human breast cancer types. RÉSUMÉ : La glande mammaire est composée de deux types principaux de cellules: les cellules luminales, qui bordent le lumen et les cellules myoépithéliales, qui se trouvent entre la lame basale et les cellules luminales. Les mécanismes intervenant dans leur différenciation et leur maintenance demeurent encore mal compris. La protéine transmembranaire Notch est connue pour déterminer le destin des cellules dans plusieurs types de tissus comme la peau ou le système nerveux. Selon le type de tissu dans lequel se trouve Notch, il agira soit comme un suppresseur de tumeur soit comme un oncogène. A l'aide de modèles de souris surexprimant les récepteurs actifs de Notch, il a été démontré que la voie de signalisation de Notch est oncogénique au niveau de la glande mammaire. Des études descriptives et fonctionnelles dans le cadre du cancer du sein ont permis de mettre en évidence une augmentation de l'activité de Notch ou de l'expression de ces composants dans certains tissus cancéreux. Toutefois, le rôle physiologique de Notch et des mécanismes qu'il active restent méconnus. P63, une protéine membre de la famille p53, est impliquée dans la différenciation des kératinocytes. Le modèle issu de l'étude des souris p63 knockout a révélé que cette protéine est requise pour la formation des primordia mammaires chez l'embryon et que son isoforme ΔNp63 est exclusivement exprimée dans la couche myoépithéliale de la glande mammaire adulte. Dans le but de comprendre les fonctions physiologiques de Notch, je l'ai activé en exprimant le domaine intracellulaire de Notch 1 (NICD) dans des cellules épithéliales primaires de glande mammaire humaine (HBECs). Le NICD a alors réduit la croissance des HBECs et conduit à la régulation négative non seulement de p63 mais également des composants du réseau d'interaction des récepteurs de la matrice extracellulaire (ECM). En exprimant conjointement ΔNp63 et NICD, il est apparu que la réduction de croissance induite par Notch était partiellement compensée, et qu'il y avait également une augmentation des composants ECM. De plus, lorsque ΔNp63 a été inactivé dans les cellules HBECs myoépithéliales, une réduction de croissance cellulaire identique à celle provoquée par l'activation de Notch a pu être mise en évidence, de même qu'une régulation négative des marqueurs myoépithéliaux ainsi qu'une augmentation des marqueurs luminaux. Afin de compléter ces informations, l'expression de ΔNp63 a été forcée dans les HBECs luminales, ce qui a induit un phénotype myoépithélial et une diminution des marqueurs lumineux. In vivo, par l'analyse de souris ayant un gène rapporteur de l'activité de Notch, j'ai démontré que Notch est activé pendant la puberté au niveau des sites de la morphogenèse canalaire, à savoir les bourgeons terminaux. Les analyses par FACS (Fluorescence-activated cell sorting) basées sur l'expression de l'antigène CD24 ont révélé qu'il peut tre détecté dans deux populations différentes : une population qui l'exprime faiblement, qui regroupe les cellules souches/progéniteurs et les cellules myoépithéliales, et une population qui l'exprime fortement qui est composé des cellules luminales. Parallèlement aux résultats in vitro, j'ai mis en évidence un faible niveau d'expression de p63 dans les cellules épithéliales de la glande mammaire de souris, exprimant faiblement l'antigène CD24 et présentant une activité de Notch. De plus, la délétion de RBPjr~, médiateur principal de la signalisation de Notch, ainsi que la surexpression de ΔNp63 in vivo ont inhibé la lignée des cellules luminales. Un autre point important révélé par les souris rapporteur de l'activité de Notch a été l'activation simultanée de Notch et de la signalisation de l'oestrogène pendant le développement pubertaire. L'expression de FOXA1, médiateur de l'activité transcriptionnelle des récepteurs aux oestrogènes (ER), est en corrélation avec l'activation de Notch in vivo, plus basse dans les cellules avec une faible expression de l'antigène CD24 que dans celles avec une forte expression. De plus, FOXA1 est régulé par NICD in vitro confirmant la présence d'un lien entre Notch et la signalisation des ER. En résumé, la signalisation de Notch est impliquée dans la détermination du destin cellulaire des cellules luminales et ses effets sont partiellement modifiés par l'inhibition de ΔNp63. ΔNp63 est requis pour la maintenance et est suffisant pour l'induction du phénotype myoépithéliale dans les HBECs in vitro et ne peut donc pas se trouver dans les cellules luminales in vivo. Basé sur ces résultats, je propose un modèle de hiérarchisation des cellules épithéliales de la glande mammaire, dans lequel sont présents deux types de progéniteurs des cellules luminales exprimant des niveaux différents d'activité de Notch, les progéniteurs lumineux précoces et tardifs. La signalisation de Notch contribue à la différenciation de la lignée cellulaire luminale au niveau de ces deux progéniteurs : dans la forme précoce, il inhibe la différenciation des cellules myoépithéliales en réduisant l'expression de p63 et dans la forme tardive, Notch est impliqué dans l'induction de la lignée luminale en agissant sur l'axe ER-FOXA1. Il serait nécessaire d'investiguer plus loin si le fait que Notch agisse comme oncogène ou suppresseur de tumeur dépend du stade de différenciation de la cellule dans laquelle il est modulé et laquelle de ces deux fonctions il est le plus probable de rencontrer dans les différents types de cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'objectif de la thèse est de comprendre le mode d'organisation économique spécifique aux petits centres urbains qui composent les espaces frontaliers sahéliens, en s'interrogeant sur leur concurrence ou leur complémentarité éventuelle à l'intérieur d'un régime de spatialité particulier. En s'appuyant sur l'exemple du carrefour économique de Gaya-Malanville-Kamba situé à la frontière entre le Niger, le Bénin et le Nigeria, il questionne le rôle de la ville-frontière ainsi que le jeu des acteurs marchands localement dominants, à partir de quatre grandes interrogations : Quelles sont les spécificités de l'Afrique sahélienne qui obligent à renouveler les approches géographiques de l'espace marchand? Quels sont les facteurs déterminants de l'activité économique frontalière? Les formes d'organisation de l'espace qui concourent à la structuration de l'économie sont-elles concurrentes ou coopératives? Les logiques économiques frontalières sont-elles compatibles avec l'orientation des programmes de développement adoptés par les pays sahéliens et leurs partenaires bi- ou multilatéraux? Dans une première partie, un modèle territorial de l'Afrique sahélienne permet de rendre compte de la prédominance des logiques circulatoires sur les logiques productives, une propriété essentielle de toute organisation économique confrontée à l'instabilité climatique. Dans une seconde partie, l'étude considère les facteurs déterminants de l'activité économique frontalière que sont le degré d'enclavement des territoires, la libre circulation des biens et des personnes, les relations concurrentielles ou coopératives qui lient les marchés ainsi que les liens clientélistes qui unissent patron et obligés. Une troisième partie est consacrée aux productions agricoles de tente organisées sous forme de coopératives paysannes ou d'initiatives privées. Une quatrième partie s'intéresse aux réseaux de l'import-export et du commerce de détail qui bénéficient de l'augmentation des besoins engendrée par l'urbanisation sahélienne. L'économie spatiale qui résulte de ces flux est organisée selon deux logiques distinctes : d'une part, les opportunités relatives à la production agricole conduisent certains investisseurs à intensifier l'irrigation pour satisfaire la demande des marchés urbains, d'autre part, les acteurs du capitalisme marchand, actifs dans l'import-export et la vente de détail, développent des réseaux informels et mobiles qui se jouent des différentiels nationaux. Les activités commerciales des villes-marchés connaissent alors des fluctuations liées aux entreprises productives et circulatoires de ces patrons, lesquelles concourent à l'organisation territoriale générale de l>Afrique sahélienne. Ces logiques évoluent dans un contexte fortement marqué par les politiques des institutions financières internationales, des agences bilatérales de coopération et des ONGs. Celles-ci se donnent pour ambition de transformer les économies, les systèmes politiques et les organisations sociales sahéliennes, en faisant la promotion du libéralisme, de la bonne gouvernance et de la société civile. Ces axes directeurs, qui constituent le champ de bataille contemporain du développement, forment un ensemble dans lequel la spécificité sahélienne notamment frontalière est rarement prise en compte. C'est pourquoi l'étude conclut en faveur d'un renouvellement des politiques de développement appliquées aux espaces frontaliers. Trois grands axes d'intervention peuvent alors être dégagés, lesquels permettent de réconcilier des acteurs et des logiques longtemps dissociés: ceux des espaces séparés par une limite administrative, ceux de la sphère urbaine et rurale et ceux du capitalisme marchand et de l'investissement agricole, en renforçant la coopération économique transfrontalière, en prenant en considération les interactions croissantes entre villes et campagnes et en appuyant les activités marchandes. Abstract: Urbanisation in West Africa is recent and fast. If only 10 % of the total population was living in urban areas in 1950, this proportion reached 40 % in 2000 and will be estimated to 60 % in 2025. Small and intermediate cities, located between the countryside and large metropolis, are particularly concerned with this process. They are nowadays considered as efficient vectors of local economic development because of fiscal or monetary disparities between states, which enable businessmen to develop particular skills based on local urban networks. The majority of theses networks are informal and extremely flexible, like in the Gaya - Malanville - Kamba region, located between Niger, Benin and Nigeria. Evidence show that this economic space is characterised by high potentialities (climatic and hydrological conditions, location on main economic West African axis) and few constraints (remoteness of some potentially high productive areas). In this context, this PhD deals with the economic relationships between the three market cities. Focusing on the links that unite the businessmen of the local markets - called patron; - it reveals the extreme flexibility of their strategies as well as the deeply informal nature of their activities. Through the analysis of examples taken from the commerce of agricultural products, import and export flows and detail activities, it studies the changes that have taken place in the city centres of Gaya, Malanville and Kamba. Meanwhile, this research shows how these cities represent a border economical area based on rival and complementary connections. In the first Part, it was necessary to reconsider the usual spatial analysis devoted to the question of economic centrality. As a matter of fact, the organisation of West African economic spaces is very flexible and mobile. Centrality is always precarious because of seasonal or temporary reasons. This is why the first chapters are devoted to the study of the specificity of the Sahelian territoriality. Two main elements are relevant: first the population diversity and second, the urban-rural linkages. In the second part, the study considers three main factors on which the cross-border economic networks are dependent: enclosure that prevents goods to reach the markets, administrative constraints that limit free trade between states and cities and the concurrent or complementary relationships between markets. A third part deals with the clientelist ties engaged between the patrons and their clients with the hypothesis that these relationships are based on reciprocity and inequality. A fourth part is devoted to' the study of the spatial organisation of commercial goods across the borders, as far as the agriculture commercial products, the import-export merchandises and the retail products are concerned. This leads to the conclusion that the economic activity is directly linked to urban growth. However, the study notices that there is a lack of efficient policies dealing with strengthening the business sector and improving the cross-border cooperation. This particularity allows us to favour new local development approaches, which would take into account the important potential of private economical actors. In the same time, the commercial flows should be regulated with the help of public policies, as long as they are specifically adapted to the problems that these areas have to deal with.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is a compilation of projects to study sediment processes recharging debris flow channels. These works, conducted during my stay at the University of Lausanne, focus in the geological and morphological implications of torrent catchments to characterize debris supply, a fundamental element to predict debris flows. Other aspects of sediment dynamics are considered, e.g. the coupling headwaters - torrent, as well as the development of a modeling software that simulates sediment transfer in torrent systems. The sediment activity at Manival, an active torrent system of the northern French Alps, was investigated using terrestrial laser scanning and supplemented with geostructural investigations and a survey of sediment transferred in the main torrent. A full year of sediment flux could be observed, which coincided with two debris flows and several bedload transport events. This study revealed that both debris flows generated in the torrent and were preceded in time by recharge of material from the headwaters. Debris production occurred mostly during winter - early spring time and was caused by large slope failures. Sediment transfers were more puzzling, occurring almost exclusively in early spring subordinated to runoffconditions and in autumn during long rainfall. Intense rainstorms in summer did not affect debris storage that seems to rely on the stability of debris deposits. The morpho-geological implication in debris supply was evaluated using DEM and field surveys. A slope angle-based classification of topography could characterize the mode of debris production and transfer. A slope stability analysis derived from the structures in rock mass could assess susceptibility to failure. The modeled rockfall source areas included more than 97% of the recorded events and the sediment budgets appeared to be correlated to the density of potential slope failure. This work showed that the analysis of process-related terrain morphology and of susceptibility to slope failure document the sediment dynamics to quantitatively assess erosion zones leading to debris flow activity. The development of erosional landforms was evaluated by analyzing their geometry with the orientations of potential rock slope failure and with the direction of the maximum joint frequency. Structure in rock mass, but in particular wedge failure and the dominant discontinuities, appear as a first-order control of erosional mechanisms affecting bedrock- dominated catchment. They represent some weaknesses that are exploited primarily by mass wasting processes and erosion, promoting not only the initiation of rock couloirs and gullies, but also their propagation. Incorporating the geological control in geomorphic processes contributes to better understand the landscape evolution of active catchments. A sediment flux algorithm was implemented in a sediment cascade model that discretizes the torrent catchment in channel reaches and individual process-response systems. Each conceptual element includes in simple manner geomorphological and sediment flux information derived from GIS complemented with field mapping. This tool enables to simulate sediment transfers in channels considering evolving debris supply and conveyance, and helps reducing the uncertainty inherent to sediment budget prediction in torrent systems. Cette thèse est un recueil de projets d'études des processus de recharges sédimentaires des chenaux torrentiels. Ces travaux, réalisés lorsque j'étais employé à l'Université de Lausanne, se concentrent sur les implications géologiques et morphologiques des bassins dans l'apport de sédiments, élément fondamental dans la prédiction de laves torrentielles. D'autres aspects de dynamique sédimentaire ont été abordés, p. ex. le couplage torrent - bassin, ainsi qu'un modèle de simulation du transfert sédimentaire en milieu torrentiel. L'activité sédimentaire du Manival, un système torrentiel actif des Alpes françaises, a été étudiée par relevés au laser scanner terrestre et complétée par une étude géostructurale ainsi qu'un suivi du transfert en sédiments du torrent. Une année de flux sédimentaire a pu être observée, coïncidant avec deux laves torrentielles et plusieurs phénomènes de charriages. Cette étude a révélé que les laves s'étaient générées dans le torrent et étaient précédées par une recharge de débris depuis les versants. La production de débris s'est passée principalement en l'hiver - début du printemps, causée par de grandes ruptures de pentes. Le transfert était plus étrange, se produisant presque exclusivement au début du printemps subordonné aux conditions d'écoulement et en automne lors de longues pluies. Les orages d'été n'affectèrent guère les dépôts, qui semblent dépendre de leur stabilité. Les implications morpho-géologiques dans l'apport sédimentaire ont été évaluées à l'aide de MNT et études de terrain. Une classification de la topographie basée sur la pente a permis de charactériser le mode de production et transfert. Une analyse de stabilité de pente à partir des structures de roches a permis d'estimer la susceptibilité à la rupture. Les zones sources modélisées comprennent plus de 97% des chutes de blocs observées et les bilans sédimentaires sont corrélés à la densité de ruptures potentielles. Ce travail d'analyses des morphologies du terrain et de susceptibilité à la rupture documente la dynamique sédimentaire pour l'estimation quantitative des zones érosives induisant l'activité torrentielle. Le développement des formes d'érosion a été évalué par l'analyse de leur géométrie avec celle des ruptures potentielles et avec la direction de la fréquence maximale des joints. Les structures de roches, mais en particulier les dièdres et les discontinuités dominantes, semblent être très influents dans les mécanismes d'érosion affectant les bassins rocheux. Ils représentent des zones de faiblesse exploitées en priorité par les processus de démantèlement et d'érosion, encourageant l'initiation de ravines et couloirs, mais aussi leur propagation. L'incorporation du control géologique dans les processus de surface contribue à une meilleure compréhension de l'évolution topographique de bassins actifs. Un algorithme de flux sédimentaire a été implémenté dans un modèle en cascade, lequel divise le bassin en biefs et en systèmes individuels répondant aux processus. Chaque unité inclut de façon simple les informations géomorpologiques et celles du flux sédimentaire dérivées à partir de SIG et de cartographie de terrain. Cet outil permet la simulation des transferts de masse dans les chenaux, considérants la variabilité de l'apport et son transport, et aide à réduire l'incertitude liée à la prédiction de bilans sédimentaires torrentiels. Ce travail vise très humblement d'éclairer quelques aspects de la dynamique sédimentaire en milieu torrentiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suicide et les tentatives de suicide des adolescents sont des enjeux de santé publique majeurs. En s'appuyant sur le modèle de soins développé à Genève, nous décrivons les différents temps nécessaires pour accueillir, évaluer et orienter un adolescent pris dans un mouvement suicidaire. Un temps d'accueil et d'évaluation pédiatrique, puis un temps d'évaluation psychiatrique et enfin un temps d'orientation à l'issue duquel est proposée une prise en charge spécifique. En fonction des caractéristiques cliniques du jeune (impulsivité, symptomatologie anxio-dépressive...), de sa capacité d'engagement dans les soins et de la qualité des liens du réseau, la prise en charge sera soit ambulatoire intensive, soit hospitalière. Suicide and suicide attempts of adolescents are major public health issues. Based on a model of care developed in Geneva, we describe the conditions necessary to evaluate and guide a teenager trapped in a suicidal behavior. First of all, there must be some time dedicated to pediatric assessement followed by a psychiatric evaluation and finally, the adolescent can be oriented toward specific treatment. Depending on the clinical characteristics of the young adolescent and according to his willingness to engage himself in intensive follow-up (impulsivity, anxious?--depressive symptomatology...), cares will be given either as outpatient with close monitoring or inpatient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence de fluide météorique synchrone à l'activité du détachement (Farmin, 2003 ; Mulch et al., 2007 ; Gébelin et al., 2011), implique que les zones de cisaillement sont des systèmes ouverts avec des cellules de convections à l'échelle crustale et un intense gradient géothermique au sein du détachement (Morrison et Anderson, 1998, Gottardi et al., 2011). De plus, les réactions métamorphiques liées à des infiltrations fluides dans les zones de cisaillement extensionnel peuvent influencer les paramètres rhéologiques du système (White and Knipe, 1978), et impliquer la localisation de la déformation dans la croûte. Dans ce manuscrit, deux zones de cisaillement infiltrées par des fluides météoriques sont étudiées, l'une étant largement quartzitique, et l'autre de nature granitique ; les relations entre déformation, fluides, et roches s'appuient sur des approches structurales, microstructurales, chimiques et isotopiques. L'étude du détachement du Columbia river (WA, USA) met en évidence que la déformation mylonitique se développe en un million d'années. La phase de cisaillement principal s'effectue à 365± 30°C d'après les compositions isotopiques en oxygène du quartz et de la muscovite. Ces minéraux atteignent l'équilibre isotopique lors de leur recristallisation dynamique contemporaine à la déformation. La zone de cisaillement enregistre une baisse de température, remplaçant le mécanisme de glissement par dislocation par celui de dissolution- précipitation dans les derniers stades de l'activité du détachement. La dynamique de circulation fluide bascule d'une circulation pervasive à chenalisée, ce qui engendre localement la rupture des équilibres d'échange isotopiques. La zone de cisaillement de Bitterroot (MT, USA) présente une zone mylonitique de 600m d'épaisseur, progressant des protomylonites aux ultramylonites. L'intensité de la localisation de la déformation se reflète directement sur l'hydratation des feldspaths, réaction métamorphique majeure dite de « rock softening ». Une étude sur roche totale indique des transferts de masse latéraux au sein des mylonites, et d'importantes pertes de volume dans les ultramylonites. La composition isotopique en hydrogène des phyllosilicates met en évidence la présence (1) d'une source magmatique/métamorphique originelle, caractérisée par les granodiorites ayant conservé leur foliation magmatique, jusqu'aux protomylonites, et (2) une source météorique qui tamponne les valeurs des phyllosilicates des fabriques mylonitiques jusqu'aux veines de quartz non-déformées. Les compositions isotopiques en oxygène des minéraux illustrent le tamponnement de la composition du fluide météorique par l'encaissant. Ce phénomène cesse lors du processus de chloritisation de la biotite, puisque les valeurs des chlorites sont extrêmement négatives (-10 per mil). La thermométrie isotopique indique une température d'équilibre isotopique de la granodiorite entre 600-500°C, entre 500-300°C dans les mylonites, et entre 300 et 200°C dans les fabriques cassantes (cataclasites et veines de quartz). Basé sur les résultats issus de ce travail, nous proposons un modèle général d'interactions fluide-roches-déformation dans les zones de détachements infiltrées par des fluides météoriques. Les zones de détachements évoluent rapidement (en quelques millions d'années) au travers de la transition fragile-ductile ; celle-ci étant partiellement contrôlée par l'effet thermique des circulations de fluide météoriques. Les systèmes de détachements sont des lieux où la déformation et les circulations fluides sont couplées ; évoluant rapidement vers une localisation de la déformation, et de ce fait, une exhumation efficace. - The presence of meteoric fluids synchronous with the activity of extensional detachment zones (Famin, 2004; Mulch et al., 2007; Gébelin et al., 2011) implies that extensional systems involve fluid convection at a crustal scale, which results in high geothermal gradients within active detachment zones (Morrison and Anderson, 1998, Gottardi et al., 2011). In addition, the metamorphic reactions related to fluid infiltration in extensional shear zones can influence the rheology of the system (White and Knipe, 1978) and ultimately how strain localizes in the crust. In this thesis, two shear zones that were permeated by meteoric fluids are studied, one quartzite-dominated, and the other of granitic composition; the relations between strain, fluid, and evolving rock composition are addressed using structural, microstructural, and chemical/isotopic measurements. The study of the Columbia River detachment that bounds the Kettle core complex (Washington, USA) demonstrates that the mylonitic fabrics in the 100 m thick quartzite- dominated detachment footwall developed within one million years. The main shearing stage occurred at 365 ± 30°C when oxygen isotopes of quartz and muscovite equilibrated owing to coeval deformation and dynamic recrystallization of these minerals. The detachment shear zone records a decrease in temperature, and dislocation creep during detachment shearing gave way to dissolution-precipitation and fracturing in the later stages of detachment activity. Fluid flow switched from pervasive to channelized, leading to isotopic disequilibrium between different minerals. The Bitterroot shear zone detachment (Montana, USA) developed a 600 m thick mylonite zone, with well-developed transitions from protomylonite to ultramylonite. The localization of deformation relates directly to the intensity of feldspar hydration, a major rock- softening metamorphic reaction. Bulk-rock analyses of the mylonitic series indicate lateral mass transfer in the mylonite (no volume change), and significant volume loss in ultramylonite. The hydrogen isotope composition of phyllosilicates shows (1) the presence of an initial magmatic/metamorphic source characterized by the granodiorite in which a magmatic, and gneissic (protomylonite) foliation developed, and (2) a meteoric source that buffers the values of phyllosilicates in mylonite, ultramylonite, cataclasite, and deformed and undeformed quartz veins. The mineral oxygen isotope compositions were buffered by the host-rock compositions until chloritization of biotite started; the chlorite oxygen isotope values are negative (-10 per mil). Isotope thermometry indicates a temperature of isotopic equilibrium of the granodiorite between 600-500°C, between 500-300°C in the mylonite, and between 300 and 200°C for brittle fabrics (cataclasite and quartz veins). Results from this work suggest a general model for fluid-rock-strain feedbacks in detachment systems that are permeated by meteoric fluids. Phyllosilicates have preserved in their hydrogen isotope values evidence for the interaction between rock and meteoric fluids during mylonite development. Fluid flow generates mass transfer along the tectonic anisotropy, and mylonites do not undergo significant volume change, except locally in ultramylonite zones. Hydration of detachment shear zones attends mechanical grain size reduction and enhances strain softening and localization. Self-exhuming detachment shear zones evolve rapidly (a few million years) through the transition from ductile to brittle, which is partly controlled by the thermal effect of circulating surface fluids. Detachment systems are zones in the crust where strain and fluid flow are coupled; these systems. evolve rapidly toward strain localization and therefore efficient exhumation.