1000 resultados para Héparine de faible poids moléculaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

C4-dicarboxylates are one of the preferred carbon and energy sources for the growth of P. aeruginosa, a ubiquitous and metabolically versatile bacterium. However, despite their importance, C4-dicarboxylates sensing and uptake systems were poorly understood in P. aeruginosa and only little information was available in the literature. In our work, the C4-dicarboxylate transport (Dct) system in P. aeruginosa was found to be composed of a novel two-component system, called DctB/DctD, regulating together with the sigma factor RpoN the expression of two newly identified C4-dicarboxylate transporters: DctA and DctPQM. Inactivation of the dct A, dctB or dctD gene caused a growth defect of the strain in minimal media supplemented with succinate, fumarate or malate, indicating their major role in Dct. However, residual growth of the dctA mutant in these media suggested the presence of redundant C4-dicarboxylate transporter(s). Tn5 insertion mutagenesis of the kdctA mutant, combined with a screening for growth on succinate, led to the identification of a second Dct system, the DctPQM transporter, belonging to the tripartite ATP-independent periplasmic (TRAP) family of carriers. AdctAAdctPQM double mutant showed no growth on malate and fumarate albeit residual growth on succinate suggested that additional transporters for succinate are present. Competition experiments demonstrated that the DctPQM carrier was more efficient than the DctA carrier for the utilization of succinate at μΜ concentrations, whereas DctA was the major transporter at mM concentrations. For the first time, high- and low-affinity uptake systems for succinate (DctA and DctPQM) are reported to function co-ordinately to transport C4- dicarboxylates. Most probably, the presence of redundant uptake systems contributes to the versatility of this bacterium. Next, the regulation of the Dct system was investigated. While performing a parallel study about the carbon catabolite repression (CCR) phenomenon in P. aeruginosa, a link between the CCR cascade (CbrAB/CrcZ/Crc) and the Dct system was observed. Crc is a translational repressor acting when preferred carbon sources (like C4-dicarboxylates) are present. CrcZ is a small RNA acting as a functional antagonist of Crc and induced by the CbrA/CbrB two-component system when non preferred carbon sources (like mannitol) are utilized. Novel targets of the CbrAB/CrcZ/Crc system in P. aeruginosa were identified using transcriptome analysis; among them dctA and dctPQM were detected. CCR is regulating the dct transporter genes expression depending on the succinate concentrations in the medium of growth; this modulation of CCR is possible because, at the same time, succinate concentrations tune CCR. In a medium containing high succinate concentrations, CrcZ levels were low and therefore Crc inhibited the translation of mRNA targets. Whereas in a medium containing low succinate concentrations, the subsequent increase of CrcZ levels sequestered Crc, inhibiting its activity. This model shows for the first time that CCR possesses a feedback-based circuitry, a very important type of regulatory loop that confers the best adaptive response under changing environmental conditions. The expression of the dct transporter genes is also found to be regulated by the RNA chaperone protein Hfq. Hfq has the same post-transcriptional effect than Crc at high concentration of succinate, i.e. inhibiting dctP and dctR and indirectly favouring dctA expression. Moreover, an additional indirect positive regulation of dctP expression by Hfq was found. Finally, a metabolome approach was performed to investigate the internal signals modulating CCR via induction of CbrA activity in P. aeruginosa PAOl and P. putida KT2442. The results of the analysis are currently under study in the laboratory. - Les acides C4-dicarboxyliques font partie des sources de carbone et d'énergie préférés de P. aeruginosa, une bactérie versatile et ubiquitaire. Néanmoins, malgré leur importance, comment la présence des acides C4-dicarboxyliques dans le milieu est sentie par la bactérie et comment ils sont transportés dans la cellule chez P. aeruginosa n'étaient pas connus. De plus, peu d'informations sur ces procédés ont été répertoriées dans la littérature. Grace à notre travail, le système de transport des acides C4-dicarboxyliques (Dct) chez P. aeruginosa a pu être caractérisé. En effet, il est composé d'un nouveau système à deux composants, nommé DctB/DctD, qui régule, en combinaison avec le facteur sigma alternatif RpoN, l'expression des deux nouveaux transporteurs des acides C4-dicarboxyliques: DctA et DctPQM. L'inactivation des gènes dctA, dctB or dctD cause un défaut de croissance des souches mutantes dans un milieu minimum contenant du succinate, fumarate ou malate; confirmation de leur rôle dans le Dct. Cependant, une croissance résiduelle du mutant dctA dans ces milieux suggérerait une redondance des transporteurs d'acides Grdicarboxyliques. Une expérience de mutagenèse dans la souche AdctA, utilisant le transposon Tn5, combiné avec un criblage génétique sur la croissance dans le succinate, nous a permis d'identifier le deuxième transporteur DctPQM. DctPQM appartient à la famille des transporteurs TRAP (tripartite ATP-independent periplasmic). Un double mutant AdctAAdctPQM ne pousse pas dans du malate ou fumarate mais par contre présente une croissance résiduelle dans le succinate suggérant l'existence de transporteurs supplémentaires pour le succinate. En réalisant des expériences de compétitions nous avons démontré que le transporteur DctPQM est plus efficace que le transporteur DctA pour l'utilisation de succinate à une concentration de l'ordre du μΜ. Par contre, DctA est le transporteur le plus important pour une concentration de succinate de l'ordre du raM. Pour la première fois, deux systèmes de transport, un avec une forte- et un avec une faible-affinité (DctA et DctPQM) pour le succinate, sont coordonnés dans leur activité de transport des acides C4- dicarboxyliques, probablement contribuant à la versatilité de la bactérie. Ensuite, nous avons étudié la régulation du system Dct. En effectuant, en parallèle, une étude sur le phénomène de la répression catabolique (RC) chez P. aeruginosa, un lien entre la RC et le système Dct a été observé. La cascade des régulateurs formant la RC est composée de CbrA/CbrB, CrcZ et Crc. Crc est un répresseur traductionnel qui agit quand des sources de carbone préférées (comme les acides C4-dicarboxyliques) sont présentes dans le milieu. CrcZ est un petit ARN non-codant qui agit comme antagoniste de Crc. L'expression de CrcZ est induite par le système à deux composants CbrA/CbrB lorsque une source de carbone non-préférée est utilisée (comme le mannitol). Des nouvelles cibles du système CbrAB/CrcZ/Crc chez P. aeruginosa ont été identifiées grâce à une analyse du transcriptome des souches mutantes des régulateurs de la cascade. Parmi les cibles identifiées, les gènes dctA et dctPQM étaient présents. La RC régule l'expression des transporteurs dct en fonction de la concentration de succinate dans le milieu de croissance. Cette régulation est possible parce que, en même temps, les acides C4- dicarboxyliques régulent la RC. Dans un milieu contenant une grande concentration du succinate, le niveau d'expression de CrcZ est faible, donc Crc peut inhiber l'expression de ces ARN messagers cibles. Par contre, dans un milieu avec une faible concentration de succinate, l'augmentation de l'expression de CrcZ titre Crc et inhibe son activité. Ce modèle de régulation rétroactive est très important pour le phénomène de la RC, parce qu'il permet à la bactérie d'accorder une meilleure réponse à un changement environnemental. L'expression des gènes codant pour les transporteurs dct sont aussi régulés par la protéine chaperonne d'ARN Hfq. Hfq semble avoir le même effet traductionnelle que Crc, lorsqu'il y a une forte concentration de succinate. Nous avons ainsi observé une régulation négative de l'expression du gène dct Ρ et dctR, qui code pour un répresseur de la transcription de dctA. Nous avons aussi observé une régulation positive de la transcription de dctP par Hfq, probablement de façon indirecte. Enfin, une analyse du metabolome a était utilisée pour chercher les signaux internes modulant la RC et, en particulier, l'activité de la protéine senseur CbrA chez P. aeruginosa PAOl et P. putida KT2442. Les résultats de l'analyse sont en cours d'étude dans le laboratoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Observing infants in triadic situations has revealed their triangular competence; namely, their ability to interact with both parents by simultaneously sharing their attention and affects with them. Infants' triangular interaction is linked with the coparenting unit's degree of coordination; in high-coordination (HC) families, parents act as a team in relation to the child, thus drawing clear and flexible boundaries with them; in low-coordination (LC) families, parents either avoid direct interaction with each other and include the child in their unit or join together against the child and exclude him or her, thus drawing inconsistent boundaries with the child. We explored the interactive strategies of LC 9-month-olds (n = 15) with those of their parents, comparing them with HC parents (n = 23) in two conditions: playing with both parents at the same time and witnessing their parents' dialogue. LC infants' affects were less positive; they addressed fewer positive triangular bids to their parents and tended to use a less triangular interactive mode. Thus, LC infants had fewer opportunities than did HC infants to acquire skills necessary for coping with triangular interaction. L'observation de nourrissons dans des situations triadiques a révélé leur compétence triangulaire, c'est-à-dire la capacité à interagir avec les deux parents en partageant simultanément leur attention et leurs affects avec eux. L'interaction triangulaire des nourrissons est liée au degré de coordination de l'unité de coparentage. Dans les familles à coordination élevée (abrégé HC en anglais, CE en français), les parents agissent en relation à l'enfant en tant qu'équipe, et établissent donc des limites claires et flexibles avec les enfants. Dans les familles à coordination faible (abrégé LC en anglais, CF en français), les parents évitent soit l'interaction directe l'un avec l'autre et incluent l'enfant dans leur unité, ou bien ils se liguent contre l'enfant et l'excluent, établissant donc des limites contradictoires avec l'enfant. Nous explorons les stratégies interactives de bébés de 9 mois CF avec celle de leurs parents, en les comparant avec des parents CE (N = 23) dans deux conditions: le jeu avec les deux parents au même moment et l'observation du dialogue des parents. Les affects des bébés CF étaient moins positifs. Les bébés se tournaient moins triangulairement vers leurs parents et avaient tendance à utiliser un mode interactif moins triangulaire. Les bébés CF avaient donc moins de chances que les bébés CE d'acquérir les compétences nécessaires pour faire face avec une interaction triangulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d'examens fluoroscopiques pratiqués en fluoroscopie est en augmentation constante en cardiologie pédiatrique. Ces examens ont un bénéfice évident pour le diagnostic et la thérapie de pathologies cardiaques complexes mais ils sont également la cause d'exposition à des hautes doses de radiation. Notre étude propose donc d'analyser cette pratique au Centre Hospitalier Universitaire Vaudois (CHUV) ainsi que d'établir des niveaux de référence diagnostiques et de rechercher les moyens possibles de diminution de doses. La base de données que nous avons analysé provient du service de cardiologie pédiatrique du CHUV (Lausanne). Elle contient 873 examens fluoroscopiques pratiqués entre le 1er janvier 2003 et le 31 décembre 2011 et se compose des données démographiques, du temps de scopie en minutes et du dose area product (DAP) en Gycm 2 pour chaque examen. Les examens sont séparés en deux modalités, diagnostique et interventionnel et ont été pratiqués sur l'installation GE jusqu'en juillet 2010 et par la suite sur l'installation Philips. L'analyse s'est faite sur Excel et sur JMP Statistics afin d'établir la distribution démographique de l'échantillon, les moyennes et percentiles 75. Les examens diagnostiques ont été étudié par classes d'âge et les examens interventionnels selon une classification d'intervention (Ranking) établie en collaboration avec le médecin responsable de ces procédures au CHUV. Seuls les groupes d'examens ayant un nombre égal ou supérieur à 20 ont été analysés. Nous avons donc analysé 873 examens, dont 512 diagnostiques et 361 interventionnels. Le temps de scopie moyen pour l'ensemble des examens diagnostiques est de 11.91 minutes et le DAP moyen de 12.04 Gycm2. Concernant les examens interventionnels, les moyennes de temps de scopie et de DAP sont de 17.74 minutes et 9.77 Gycm2 respectivement. En plus des analyses par classes d'âges et par ranking, nous avons étudié les examens selon leurs données démographiques ainsi que par pathologie et par installation. L'ensemble des examens diagnostiques connaissent une diminution significative (p<0.0001) de 30% pour le temps de scopie moyen et de 60% pour le DAP moyen en passant de l'installation la plus ancienne, GE, à la plus récente, Philips. Concernant les examens interventionnels, La différence entre les deux installations est encore plus marquée avec un temps de scopie moyen 55 % inférieur ( Gycm2) et un DAP moyen 73 % (p=0.0002) plus faible sur Philips par rapport à GE. Ces différences sont principalement expliquées par l'apport de nouveaux outils sur l'installation Philips, tels que la digitalisation et le traitement de l'image, de la possibilité de changer le nombre d'images par seconde durant un examen ainsi que de l'amélioration de la pratique des examinateurs. Nous avons pu définir des percentiles 75 pour les examens diagnostiques par classes d'âge et par pathologie et pour les examens interventionnels selon le ranking établi par le Dr Di Bernardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pseudomonas aeruginosa, une bactérie environnementale ubiquitaire, est un des pathogènes nosocomiaux les plus fréquents aux soins intensifs. La source de ce microorganisme peut être soit endogène, 2,6 à 24 % des patients hospitalisés étant colonisés au niveau digestif, soit exogène. La proportion des cas d'infections à P. aeruginosa d'origine exogène, donc secondaires à une transmission par manuportage ou par l'eau du réseau utilisée pour la toilette ou d'autres soins, reste débattue. Or une meilleure évaluation du taux d'infections exogènes est importante pour la mise en place de mesures de contrôle appropriées. Le but de cette étude était de déterminer sur une période de 10 ans les rôles respectifs des sources exogènes (robinets, autres patients) et endogène dans la colonisation et/ou l'infection par P.aeruginosa chez les patients des Soins Intensifs, ainsi que de documenter les variations épidémiologiques au cours du temps. L'étude a été menée dans les unités de Soins Intensifs du Centre Hospitalier Universitaire Vaudois (CHUV). Les patients colonisés et/ou infectés par P. aeruginosa entre 1998 et 2007ont été identifiés via la base de données du laboratoire de microbiologie. Ils ont été inclus dans l'étude s'ils étaient hospitalisés dans une des unités de Soins Intensifs, Durant cette période, des prélèvements pour recherche de P. aeruginosa ont été effectués sur des robinets des soins intensifs. Un typage moléculaire a été effectué sur toutes les souches cliniques et environnementales isolées en 1998, 2000, 2003, 2004 et 2007. Les patients inclus dans l'étude ont été répartis en quatre catégories (A-D) selon le résultat du typage moléculaire leur souche de P. aeruginosa. La catégorie A inclut les cas pour lesquels le génotype de P. aeruginosa est identique à un des génotypes retrouvé dans l'environnement. La catégorie B comprend les cas pour lesquels le génotype est identique à celui d'au moins un autre patient. La catégorie C comprend les cas avec un génotype unique et la catégorie D comprend les cas pour lesquels la souche était non disponible pour le typage. Les cas des catégories A et B sont considérés comme ayant une origine exogène. Au cours des années de l'étude, le nombre d'admissions aux soins intensifs est resté stable. En moyenne, 86 patients par année ont été identifiés colonisés ou infectés par P. aeruginosa aux Soins Intensifs. Durant la première année d'investigation, un grand nombre de patients colonisés par une souche de P. aeruginosa identique à une de celles retrouvées dans l'environnement a été mis en évidence. Par la suite, possiblement suite à l'augmentation de la température du réseau d'eau chaude, le nombre de cas dans la catégorie A a diminué. Dans la catégorie B, le nombre de cas varie de 1,9 à 20 cas/1000 admissions selon les années. Ce nombre est supérieur à 10 cas/1000 admissions en 1998, 2003 et 2007 et correspond à des situations épidémiques transitoires. Tout au long des 10 ans de l'étude, le nombre de cas dans la catégorie C (source endogène) est demeuré stable et indépendant des variations du nombre de cas dans les catégories A et B. En conclusion, la contribution relative des réservoirs endogène et exogène dans la colonisation et/ou l'infection des patients de soins Intensifs varie au cours du temps. Les facteurs principaux qui contribuent à de telles variations sont probablement le degré de contamination de l'environnement, la compliance des soignants aux mesures de contrôle des infections et la génétique du pathogène lui-même. Etant donné que ce germe est ubiquitaire dans l'environnement aqueux et colonise jusqu'à 15% des patients hospitalisés, la disparition de son réservoir endogène semble difficile. Cependant, cette étude démontre que son contrôle est possible dans l'environnement, notamment dans les robinets en augmentant la température de l'eau. De plus, si une souche multi-résistante est retrouvée de manière répétée dans l'environnement, des efforts doivent être mis en place pour éliminer cette souche. Des efforts doivent être également entrepris afin de limiter la transmission entre les patients, qui est une cause importante et récurrente de contamination exogène. - Pseudomonas aeruginosa is one of the leading nosocomial pathogens in intensive care units (ICUs). The source of this microorganism can be either endogenous or exogenous. The proportion of cases as a result of transmission is still debated, and its elucidation is important for implementing appropriate control measures. To understand the relative importance of exogenous vs. endogenous sources of P. aeru¬ginosa, molecular typing was performed on all available P. aeruginosa isolated from ICU clinical and environmental specimens in 1998, 2000, 2003, 2004 and 2007. Patient samples were classified according to their P. aeruginosa genotypes into three categories: (A) identical to isolate from faucet; (B) identical to at least one other patient sample and not found in faucet; and (C) unique genotype. Cases in cat¬egories A and Β were considered as possibly exogenous, and cases in category C as possibly endogenous. A mean of 34 cases per 1000 admissions per year were found to be colonized or infected by P. aeruginosa. Higher levels of faucet contamination were correlated with a higher number of cases in category A. The number of cases in category Β varied from 1.9 to 20 cases per 1000 admissions. This num¬ber exceeded 10/1000 admissions on three occasions and was correlated with an outbreak on one occasion. The number of cases con¬sidered as endogenous (category C) was stable and independent of the number of cases in categories A and B. The present study shows that repeated molecular typing can help identify variations in the epidemiology of P. aeruginosa in ICU patients and guide infection control measures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article vise à contribuer à l'analyse du pouvoir de l'État français sur les territoires infranationaux en adoptant la notion de pouvoir infrastructurel développée par Michael Mann. Nous confrontons deux opérationnalisations de cette notion: la première se fonde sur les ressources à disposition de l'État, et la seconde sur le poids effectif de l'État dans les territoires infranationaux. Empiriquement, le propos s'appuie sur la comparaison de deux politiques sectorielles: les politiques d'éducation et les politiques du logement. A travers l'analyse de la capacité de l'État français à exercer un contrôle et à mettre en oeuvre ses décisions dans les territoires, cette étude nous conduit à conclure aux limites du pouvoir infrastructurel de l'État dans ces deux secteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : La prise en charge de l'artériopathie périphérique et de l'ischémie critique a fortement évolué depuis plusieurs années en faveur des traitements endovasculaires. En effet, la revascularisation chirurgicale a prouvé son efficacité à moyen et long terme mais reste invasif avec un temps de séjour hospitalier prolongé. Plusieurs études ont démontré l'intérêt de la prise en charge endovasculaire afin de réduire la morbidité et diminuer la durée de séjour. Néanmoins, elle n'offre pas des taux de succès à moyen et long terme équivalent à la chirurgie. Une approche hybride chirurgicale et endovasculaire cherchant à utiliser les avantages des 2 techniques pourrait permettre d'obtenir des taux de succès élevé avec un taux de complication plus faible. Objectifs : Nos objectifs sont d'analyser rétrospectivement la population de patients ayant bénéficié d'une approche hybride pour la revascularisation des membres inférieurs pour une claudication intermittente ou une ischémie critique. Le taux de mortalité à 30 jours ainsi que les complications locales et systémiques seront relevés. Les taux de perméabilité à 12 mois seront également analysés. Finalement, le taux de sauvetage de membre ainsi que le pourcentage de déambulation seront reportés. Méthodes : La cohorte de patients ayant bénéficié d'une approche hybride dans le service de chirurgie thoracique et vasculaire du CHUV de janvier 2008 à janvier 2011 seront systématiquement inclus dans l'analyse. L'ensemble des données démographiques et angiologiques seront reportés dans un cahier d'observation. De plus, tous les événements liés à des complications locales ou systémiques seront également analysés. Les décès seront reportés. Un appel téléphonique au patient et à son médecin traitant permettra de connaître l'état de santé actuel du patient ainsi que sa capacité à la marche. Une analyse statistique comportant une courbe de survivre selon Kaplan Meier permettra d'analyser le taux de perméabilité ainsi que la survie à moyen terme. Résultats escomptés : Les résultats devraient nous démontrés un taux de perméabilité supérieur ou équivalent à la prise en charge séparée chirurgicale ou endovasculaire. De plus les complications locales devraient être inférieures au taux obtenus dans la prise en charge chirurgicale. Le taux de sauvetage de membre et de déambulation pourrait être identique à la prise en charge chirurgicale. Plus value escomptés : L'approche hybride pour la revascularisation des membres inférieurs reste peu décrite dans la littérature. Cette étude permettra de décrire de manière globale une grande cohorte de patients homogène ayant bénéficié de cette approche dans un seul centre. Elle démontrera aussi l'éventuel intérêt de ce type de prise en charge pour les patients souffrant d'une artériopathie périphérique multiétagée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact aureoles provide an excellent geologic environment to study the mechanisms of metamorphic reactions in a natural system. The Torres del Paine (TP) intrusion is one of the most spectacular natural laboratories because of its excellent outcrop conditions. It formed in a period from 12.59 to 12.43 Ma and consists of three large granite and four smaller mafic batches. The oldest granite is on top, the youngest at the bottom of the granitic complex, and the granites overly the mafic laccolith. The TP intruded at a depth of 2-3 km into regional metamorphic anchizone to greenschist facies pelites, sandstones, and conglomerates of the Cerro Toro and Punta Barrosa formations. It formed a thin contact aureole of 150-400 m width. This thesis focuses on the reaction kinetics of the mineral cordierite in the contact aureole using quantitative textural analysis methods. First cordierite was formed from chlorite break¬down (zone I, ca. 480 °C, 750 bar). The second cordierite forming reaction was the muscovite break-down, which is accompanied by a modal decrease in biotite and the appearance of k- feldspar (zone II, 540-550 °C, 750 bar). Crystal sizes of the roundish, poikiloblastic cordierites were determined from microscope thin section images by manually marking each crystal. Images were then automatically processed with Matlab. The correction for the intersection probability of each crystal radius yields the crystal size distribution in the rock. Samples from zone I below the laccolith have the largest crystals (0.09 mm). Cordierites from zone II are smaller, with a maximum crystal radius of 0.057 mm. Rocks from zone II have a larger number of small cordierite crystals than rocks from zone I. A combination of these quantitative analysis with numerical modeling of nucleation and growth, is used to infer nucleation and growth parameters which are responsible for the observed mineral textures. For this, the temperature-time paths of the samples need to be known. The thermal history is complex because the main body of the intrusion was formed by several intrusive batches. The emplacement mechanism and duration of each batch can influence the thermal structure in the aureole. A possible subdivision of batches in smaller increments, so called pulses, will focus heat at the side of the intrusion. Focusing all pulses on one side increases the contact aureole size on that side, but decreases it on the other side. It forms a strongly asymmetric contact aureole. Detailed modeling shows that the relative thicknesses of the TP contact aureole above and below the intrusion (150 and 400 m) are best explained by a rapid emplacement of at least the oldest granite batch. Nevertheless, temperatures are significantly too low in all models, compared to observed mineral assemblages in the hornfelses. Hence, an other important thermal mechanisms needs to take place in the host rock. Clastic minerals in the immature sediments outside the contact aureole are hydrated due to small amounts of expelled fluids during contact metamorphism. This leads to a temperature increase of up to 50 °C. The origin of fluids can be traced by stable isotopes. Whole rock stable isotope data (6D and δ180) and chlorine concentrations in biotite document that the TP intrusion induced only very small amounts of fluid flow. Oxygen whole rock data show δ180 values between 9.0 and 10.0 %o within the first 5 m of the contact. Values increase to 13.0 - 15.0 %o further away from the intrusion. Whole rock 6D values display a more complex zoning. First, host rock values (-90 to -70 %o) smoothly decrease towards the contact by ca. 20 %o, up to a distance of ca. 150 m. This is followed by an increase of ca. 20 %o within the innermost 150 m of the aureole (-97.0 to -78 %o at the contact). The initial decrease in 6D values is interpreted to be due to Rayleigh fractionation accompanying the dehydration reactions forming cordierite, while the final increase reflects infiltration of water-rich fluids from the intrusion. An over-estimate on the quantity and the corresponding thermal effect yields a temperature increase of less than 30 °C. This suggests that fluid flow might have contributed only for a small amount to the thermal evolution of the system. A combination of the numerical growth model with the thermal model, including the hydration reaction enthalpies but neglecting fluid flow and incremental growth, can be used to numerically reproduce the observed cordierite textures in the contact aureole. This yields kinetic parameters which indicate fast cordierite crystallization before the thermal peak in the inner aureole, and continued reaction after the thermal peak in the outermost aureole. Only small temperature dependencies of the kinetic parameters seem to be needed to explain the obtained crystal size data. - Les auréoles de contact offrent un cadre géologique privilégié pour l'étude des mécanismes de réactions métamorphiques associés à la mise en place de magmas dans la croûte terrestre. Par ses conditions d'affleurements excellentes, l'intrusion de Torres del Paine représente un site exceptionnel pour améliorer nos connaissances de ces processus. La formation de cette intrusion composée de trois injections granitiques principales et de quatre injections mafiques de volume inférieur couvre une période allant de 12.50 à 12.43 Ma. Le plus vieux granite forme la partie sommitale de l'intrusion alors que l'injection la plus jeune s'observe à la base du complexe granitique; les granites recouvrent la partie mafique du laccolite. L'intrusion du Torres del Paine s'est mise en place a 2-3 km de profondeur dans un encaissant métamorphique. Cet encaissant est caractérisé par un métamorphisme régional de faciès anchizonal à schiste vert et est composé de pélites, de grès, et des conglomérats des formations du Cerro Toro et Punta Barrosa. La mise en place des différentes injections granitiques a généré une auréole de contact de 150-400 m d'épaisseur autour de l'intrusion. Cette thèse se concentre sur la cinétique de réaction associée à la formation de la cordiérite dans les auréoles de contact en utilisant des méthodes quantitatives d'analyses de texture. On observe plusieurs générations de cordiérite dans l'auréole de contact. La première cordiérite est formée par la décomposition de la chlorite (zone I, environ 480 °C, 750 bar), alors qu'une seconde génération de cordiérite est associée à la décomposition de la muscovite, laquelle est accompagnée par une diminution modale de la teneur en biotite et l'apparition de feldspath potassique (zone II, 540-550 °C, 750 bar). Les tailles des cristaux de cordiérites arrondies et blastic ont été déterminées en utilisant des images digitalisées des lames minces et en marquant individuellement chaque cristal. Les images sont ensuite traitées automatiquement à l'aide du programme Matlab. La correction de la probabilité d'intersection en fonction du rayon des cristaux permet de déterminer la distribution de la taille des cristaux dans la roche. Les échantillons de la zone I, en dessous du lacolite, sont caractérisés par de relativement grands cristaux (0.09 mm). Les cristaux de cordiérite de la zone II sont plus petits, avec un rayon maximal de 0.057 mm. Les roches de la zone II présentent un plus grand nombre de petits cristaux de cordiérite que les roches de la zone I. Une combinaison de ces analyses quantitatives avec un modèle numérique de nucléation et croissance a été utilisée pour déduire les paramètres de nucléation et croissance contrôlant les différentes textures minérales observées. Pour développer le modèle de nucléation et de croissance, il est nécessaire de connaître le chemin température - temps des échantillons. L'histoire thermique est complexe parce que l'intrusion est produite par plusieurs injections successives. En effet, le mécanisme d'emplace¬ment et la durée de chaque injection peuvent influencer la structure thermique dans l'auréole. Une subdivision des injections en plus petits incréments, appelés puises, permet de concentrer la chaleur dans les bords de l'intrusion. Une mise en place préférentielle de ces puises sur un côté de l'intrusion modifie l'apport thermique et influence la taille de l'auréole de contact produite, auréole qui devient asymétrique. Dans le cas de la première injection de granite, une modélisation détaillée montre que l'épaisseur relative de l'auréole de contact de Torres del Paine au-dessus et en dessous de l'intrusion (150 et 400 m) est mieux expliquée par un emplacement rapide du granite. Néanmoins, les températures calculées dans l'auréole de con¬tact sont trop basses pour que les modèles thermiques soient cohérants par rapport à la taille de cette auréole. Ainsi, un autre mecanisme exothermique est nécessaire pour permettre à la roche encais¬sante de produire les assemblages observés. L'observation des roches encaissantes entourant les granites montre que les minéraux clastiques dans les sédiments immatures au-dehors de l'auréole sont hydratés suite à la petite quantité de fluide expulsée durant le métamorphisme de contact et/ou la mise en place des granites. Les réactions d'hydratation peuvent permettre une augmentation de la température jusqu'à 50 °C. Afin de déterminer l'origine des fluides, une étude isotopique de roches de l'auréole de contact a été entreprise. Les isotopes stables d'oxygène et d'hydrogène sur la roche totale ainsi que la concentration en chlore dans la biotite indiquent que la mise en place des granites du Torres del Paine n'induit qu'une circulation de fluide limitée. Les données d'oxygène sur roche totale montrent des valeurs δ180 entre 9.0 et 10.0%o au sein des cinq premiers mètres du contact. Les valeurs augmentent jusqu'à 13.0 - 15.0 plus on s'éloigne de l'intrusion. Les valeurs 5D sur roche totale montrent une zonation plus complexe. Les valeurs de la roche encaissante (-90 à -70%o) diminuent progressivement d'environ 20%o depuis l'extérieur de l'auréole jusqu'à une distance d'environ 150 m du granite. Cette diminution est suivie par une augmentation d'environ 20%o au sein des 150 mètres les plus proches du contact (-97.0 à -78%o au contact). La diminution initiale des valeurs de 6D est interprétée comme la conséquence du fractionnement de Rayleigh qui accompagne les réactions de déshydratation formant la cordiérite, alors que l'augmentation finale reflète l'infiltration de fluide riche en eau venant de l'intrusion. A partir de ces résultats, le volume du fluide issu du granite ainsi que son effet thermique a pu être estimé. Ces résultats montrent que l'augmentation de température associée à ces fluides est limitée à un maximum de 30 °C. La contribution de ces fluides dans le bilan thermique est donc faible. Ces différents résultats nous ont permis de créer un modèle thermique associé à la for¬mation de l'auréole de contact qui intègre la mise en place rapide du granite et les réactions d'hydratation lors du métamorphisme. L'intégration de ce modèle thermique dans le modèle numérique de croissance minérale nous permet de calculer les textures des cordiérites. Cepen¬dant, ce modèle est dépendant de la vitesse de croissance et de nucléation de ces cordiérites. Nous avons obtenu ces paramètres en comparant les textures prédites par le modèle et les textures observées dans les roches de l'auréole de contact du Torres del Paine. Les paramètres cinétiques extraits du modèle optimisé indiquent une cristallisation rapide de la cordiérite avant le pic thermique dans la partie interne de l'auréole, et une réaction continue après le pic thermique dans la partie la plus externe de l'auréole. Seules de petites dépendances de température des paramètres de cinétique semblent être nécessaires pour expliquer les don¬nées obtenues sur la distribution des tailles de cristaux. Ces résultats apportent un éclairage nouveau sur la cinétique qui contrôle les réactions métamorphiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, près de 14000 personnes sont victimes d'un accident vasculaire cérébral (AVC) en Suisse (1). Parmi elles, 3000-4000 individus décèdent des suites de leur attaque et environ 2000 personnes survivent avec des séquelles qui peuvent être relativement importantes. Cette affection a donc un poids non négligeable en terme de morbidité et de mortalité ; dans les pays indistrualisés, elle représente la première cause de handicap, la deuxième cause de démence ainsi que la troisième cause de mortalité. Il existe deux types d'AVC : les accidents ischémiques et les accidents hémorragiques (2,3). Dans environ 80% des cas, les AVC sont des accidents ischémiques, résultant d'une occlusion artérielle ou veineuse - les ischémies sur occlusion veineuse étant rares en comparaison de celles sur occulsion artérielle. En outre, on parle d'accident ischémiques transitoires (AIT) lorsque les symptomes sont spontanément résolutifs en moins de 24 heures. Les accidents hémorragiques, quant à eux, ne constituent qu'une minorité des AVC (20%) et sont secondaires à une rupture de vaisseau. La physiopathologie des différents types d'AVC a été particulièrement bien étudiée, ce qui a permis de mettre en évidence un certain nombre de causes. Un AVC peut donc être d'origine cardiaque (embole à point de départ cardiaque, fibrillation auriculaire), d'origine athéromateuse (embole sur plaque d'athéromatose des vaisseaux pré-cérébraux) ou encore, la conséquence directe d'une hypertension artérielle (maladie des petits vaisseaux, hémorragies intracérébrales) (3). Il existe également des causes un peu moins fréquentes, telles que les dissections aortiques, les ruptures d'anévrisme, les malformations artério-veineuses, les états pro-coagulants, les vasculites, la prise de toxiques. De nombreux facteurs de risque ont été mis en évidence (3). Certains d'entre eux, tels que l'âge, le sexe ou l'éthnie, ne sont pas modifiables. Mais il en est d'autres sur lesquels il est possible d'avoir un impact positif et leur identification fait donc partie intégrante du bilan de base chez les patients victimes d'AVC. Il s'agit de l'hypertension artérielle, du diabète, du tabagisme actif et de l'hypercholestérolémie. La présentation clinique de l'AVC est fonction du territoire vasculaire touché (3). Historiquement, la localisation et la compréhension des fonctions cérébrales ont été le fruit de corrélations anatomo-clinique puis radiologico-clinique (2). Dans la majorité des cas, on étudiait la partie commune à toutes les lésions de différents patients présentant un symptôme, et cette partie était présumée responsable de cette fonction. Néanmoins, le patient pouvait présenter d'autres symptômes associés, ce qui peut représenter un certain biais. A l'heure actuelle, l'imagerie fonctionnelle remplace progressivement ces corrélations radiologico- cliniques (2). Finalement, des études de cas isolés, avec lésions relativement circonscrites, ont également contribués à la compréhension des fonctions cérébrales (4-12). Le but principal de cette étude est d'analyser les syndromes cliniquement isolées (CIS, atteinte d'une fonction cérébrale, d'un segment corporel) dans le registre lausannois des accidents vasculaires cérébraux en terme de facteurs de risques, et de caractéristiques de l'AVC (origine, localisation) afin de déterminer des facteurs indépendants de survenue de telles atteintes, d'un point de vue général et pour chacune d'entre elles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Helvetic nappe system in Western Switzerland is a stack of fold nappes and thrust sheets em-placed at low grade metamorphism. Fold nappes and thrust sheets are also some of the most common features in orogens. Fold nappes are kilometer scaled recumbent folds which feature a weakly deformed normal limb and an intensely deformed overturned limb. Thrust sheets on the other hand are characterized by the absence of overturned limb and can be defined as almost rigid blocks of crust that are displaced sub-horizontally over up to several tens of kilometers. The Morcles and Doldenhom nappe are classic examples of fold nappes and constitute the so-called infra-Helvetic complex in Western and Central Switzerland, respectively. This complex is overridden by thrust sheets such as the Diablerets and Wildhörn nappes in Western Switzerland. One of the most famous example of thrust sheets worldwide is the Glariis thrust sheet in Central Switzerland which features over 35 kilometers of thrusting which are accommodated by a ~1 m thick shear zone. Since the works of the early Alpine geologist such as Heim and Lugeon, the knowledge of these nappes has been steadily refined and today the geometry and kinematics of the Helvetic nappe system is generally agreed upon. However, despite the extensive knowledge we have today of the kinematics of fold nappes and thrust sheets, the mechanical process leading to the emplacement of these nappe is still poorly understood. For a long time geologist were facing the so-called 'mechanical paradox' which arises from the fact that a block of rock several kilometers high and tens of kilometers long (i.e. nappe) would break internally rather than start moving on a low angle plane. Several solutions were proposed to solve this apparent paradox. Certainly the most successful is the theory of critical wedges (e.g. Chappie 1978; Dahlen, 1984). In this theory the orogen is considered as a whole and this change of scale allows thrust sheet like structures to form while being consistent with mechanics. However this theoiy is intricately linked to brittle rheology and fold nappes, which are inherently ductile structures, cannot be created in these models. When considering the problem of nappe emplacement from the perspective of ductile rheology the problem of strain localization arises. The aim of this thesis was to develop and apply models based on continuum mechanics and integrating heat transfer to understand the emplacement of nappes. Models were solved either analytically or numerically. In the first two papers of this thesis we derived a simple model which describes channel flow in a homogeneous material with temperature dependent viscosity. We applied this model to the Morcles fold nappe and to several kilometer-scale shear zones worldwide. In the last paper we zoomed out and studied the tectonics of (i) ductile and (ii) visco-elasto-plastic and temperature dependent wedges. In this last paper we focused on the relationship between basement and cover deformation. We demonstrated that during the compression of a ductile passive margin both fold nappes and thrust sheets can develop and that these apparently different structures constitute two end-members of a single structure (i.e. nappe). The transition from fold nappe to thrust sheet is to first order controlled by the deformation of the basement. -- Le système des nappes helvétiques en Suisse occidentale est un empilement de nappes de plis et de nappes de charriage qui se sont mis en place à faible grade métamorphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement défor-mé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Mordes et la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glariis en Suisse centrale se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. Aujourd'hui la géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général. Malgré cela, les processus mécaniques par lesquels ces nappes se sont mises en place restent mal compris. Pendant toute la première moitié du vingtième siècle les géologues les géologues ont été confrontés au «paradoxe mécanique». Celui-ci survient du fait qu'un bloc de roche haut de plusieurs kilomètres et long de plusieurs dizaines de kilomètres (i.e., une nappe) se fracturera de l'intérieur plutôt que de se déplacer sur une surface frictionnelle. Plusieurs solutions ont été proposées pour contourner cet apparent paradoxe. La solution la plus populaire est la théorie des prismes d'accrétion critiques (par exemple Chappie, 1978 ; Dahlen, 1984). Dans le cadre de cette théorie l'orogène est considéré dans son ensemble et ce simple changement d'échelle solutionne le paradoxe mécanique (la fracturation interne de l'orogène correspond aux nappes). Cette théorie est étroitement lié à la rhéologie cassante et par conséquent des nappes de plis ne peuvent pas créer au sein d'un prisme critique. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la méca-nique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous avons dérivé un modèle d'écoulement dans un chenal d'un matériel homogène dont la viscosité dépend de la température. Nous avons appliqué ce modèle à la nappe de Mordes et à plusieurs zone de cisaillement d'échelle kilométrique provenant de différents orogènes a travers le monde. Dans le dernier article nous avons considéré le problème à l'échelle de l'orogène et avons étudié la tectonique de prismes (i) ductiles, et (ii) visco-élasto-plastiques en considérant les transferts de chaleur. Nous avons démontré que durant la compression d'une marge passive ductile, a la fois des nappes de plis et des nappes de charriages peuvent se développer. Nous avons aussi démontré que nappes de plis et de charriages sont deux cas extrêmes d'une même structure (i.e. nappe) La transition entre le développement d'une nappe de pli ou d'une nappe de charriage est contrôlé au premier ordre par la déformation du socle. -- Le système des nappes helvétiques en Suisse occidentale est un emblement de nappes de plis et de nappes de chaînage qui se sont mis en place à faible grade métamoiphique. Les nappes de plis et les nappes de charriage sont parmi les objets géologiques les plus communs dans les orogènes. Les nappes de plis sont des plis couchés d'échelle kilométrique caractérisés par un flanc normal faiblement déformé, au contraire de leur flanc inverse, intensément déformé. Les nappes de charriage, à l'inverse se caractérisent par l'absence d'un flanc inverse bien défini. Elles peuvent être définies comme des blocs de croûte terrestre qui se déplacent de manière presque rigide qui sont déplacés sub-horizontalement jusqu'à plusieurs dizaines de kilomètres. La nappe de Morcles and la nappe du Doldenhorn sont des exemples classiques de nappes de plis et constitue le complexe infra-helvétique en Suisse occidentale et centrale, respectivement. Ce complexe repose sous des nappes de charriages telles les nappes des Diablerets et du Widlhörn en Suisse occidentale. La nappe du Glarüs en Suisse centrale est certainement l'exemple de nappe de charriage le plus célèbre au monde. Elle se distingue par un déplacement de plus de 35 kilomètres qui s'est effectué à la faveur d'une zone de cisaillement basale épaisse de seulement 1 mètre. La géométrie et la cinématique des nappes alpines fait l'objet d'un consensus général parmi les géologues. Au contraire les processus physiques par lesquels ces nappes sont mises en place reste mal compris. Les sédiments qui forment les nappes alpines se sont déposés à l'ère secondaire et à l'ère tertiaire sur le socle de la marge européenne qui a été étiré durant l'ouverture de l'océan Téthys. Lors de la fermeture de la Téthys, qui donnera naissance aux Alpes, le socle et les sédiments de la marge européenne ont été déformés pour former les nappes alpines. Le but de cette thèse était de développer et d'appliquer des modèles basés sur la théorie de la mécanique des milieux continus et sur les transferts de chaleur pour comprendre l'emplacement des nappes. Ces modèles ont été solutionnés de manière analytique ou numérique. Dans les deux premiers articles présentés dans ce mémoire nous nous sommes intéressés à la localisation de la déformation à l'échelle d'une nappe. Nous avons appliqué le modèle développé à la nappe de Morcles et à plusieurs zones de cisaillement provenant de différents orogènes à travers le monde. Dans le dernier article nous avons étudié la relation entre la déformation du socle et la défonnation des sédiments. Nous avons démontré que nappe de plis et nappes de charriages constituent les cas extrêmes d'un continuum. La transition entre nappe de pli et nappe de charriage est intrinsèquement lié à la déformation du socle sur lequel les sédiments reposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Un jour viendra où le principal avantage d'apprendre la médecine sera de se protéger contre les médecins ». Cette phrase de Jacques Ferron illustre bien le sentiment que certain-e-s patient-e-s cultivent à l'égard du corps médical, une confiance en les connaissances fournies par la science, mais une méfiance envers ceux chargés de les transmettre. La pilule contraceptive en est certainement l'emblème. Ce médicament apparu il y a maintenant 52 ans, fait depuis son apparition l'objet de débats intenses. Débats tant sociaux que médicaux. Aujourd'hui, la contraception orale est devenue la forme de contraception la plus utilisée dans le monde occidental mais malgré sont succès, elle reste toujours au centre des débats. Toutefois le contexte, les préoccupations et même la pilule ont changés. Le contexte actuel pousse les femmes à prendre la pilule, pour diverses raisons, soit personnelles, sociales, médicales ou commerciales. D'un côté elle est présentée comme la contraception « idéale », comme l'outil permettant à une femme d'avoir une vie sexuelle et professionnelle « libérée » avec un rapport risques- bénéfices optimal et de l'autre côté les femmes se posent des questions face à une pilule qui doit être prise quotidiennement et souvent à long terme. Une pilule dont elles entendent régulièrement parler dans les médias comme véhiculant un danger camouflé par un complot pharmaco-médical. Parfois commencée à un jeune âge, lorsque l'on est plus tout à fait enfant et loin d'être femme, ce contraceptif accompagne leurs premières aventures sexuelles et leurs premiers pas dans leur processus de construction en tant que femme. Mais très vite la pilule pose de nombreuses questions. Parce que les copines en parlent, parce que les médias en parlent, parce qu'elles ont l'impression d'avoir prit du poids, d'avoir une baisse de libido, d'être plus triste. Les médecins parlent d'un médicament peu dangereux, avec peu d'effets secondaires, mais elles ne se sentent pas rassurées. Parce que partout on nous dit que la pilule peut être dangereuse. Il y a ce reportage sur cette fille qui a fait un AVC, il y a cette amie qui portera un collant (bas à compression) à vie, il y a cet article qui dit que les poissons changent de sexe à cause des oestrogènes de leur pilule. Il y a ce sentiment que l'on ne leur dit pas tout.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question du filtrage de ľinformation génétique dans la cellule est fondamentale. Comment la cellule sélectionne-t-elle, avant de les transformer en RNA puis en protéines, certaines parties bien déterminées de son information génétique? Il ne sera probablement pas possible de donner une explication cohérente du développement embryonnaire, de la différentiation cellulaire et du maintien de ľétat différencie tant que nous n'aurons pas repondu de manière satis-faisante à cette question. Dans un premier chapitre, quelques notions de base concernant ľexpression génétique sont préséntées. Le dogme de flux de ľinformation génétique dans la cellule, DNARNA protéine est valable à la fois pour les procaryotes et les eucaryotes malgré des différences significatives au niveau de la structure et de la régulation des gènes. Contrairement aux génes procaryotes, la plu-part des gènes eucaryotes sont morcelés. Le DNA codant pour une protéine est interrompu par des régions non-codantes dont les transcrits sont éliminés par excision pendant la maturation du RNA messager ultérieurement traduit en protéine. Une grande variété de mécanismes interviennent dans la régulation de ľactivité de ces gènes. Le pouvoir et les limites des méthodes modernes de ľanalyse structurale et fonctionnelle des génes sont discutés dans la deuxième partie de ľarticle. Ľhybridation moléculaire reposant sur la complémentarité des bases azotées des acides nucléiques joue un rôle déterminant dans ľétude de la complexity des génomes et de leur expression. Récemment, ľapplication de la technologie du DNA recombinant et des techniques annexes a permis ľisolement ainsi que la caractérisation de plusieurs génes eucaryotes. La question de ľexpression différentielle de ces génes est actuellement intensément étudiée dans plusieurs systèmes de transcription ayant chacun ses points forts et ses faiblesses. En guise de conclusion, quelques implications de ľessor prodigieux que connaît la génétique moléculaire sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé tout public : Le développement du diabète de type II et de l'obésité est causé par l'interaction entre des gènes de susceptibilité et des facteurs environnementaux, en particulier une alimentation riche en calories et une activité physique insuffisante. Afín d'évaluer le rôle de l'alimentation en absence d'hétérogénéité génétique, nous avons nourri une lignée de souris génétiquement pure avec un régime extrêmement gras. Ce régime a conduit à l'établissement de différents phénotypes parmi ces souris, soit : un diabète et une obésité (ObD), un diabète mais pas d'obésité (LD) ou ni un diabète, ni une obésité (LnD). Nous avons fait l'hypothèse que ces adaptations différentes au stress nutritionnel induit par le régime gras étaient dues à l'établissement de programmes génétiques différents dans les principaux organes impliqués dans le maintien de l'équilibre énergétique. Afin d'évaluer cette hypothèse, nous avons développé une puce à ADN contenant approximativement 700 gènes du métabolisme. Cette puce à ADN, en rendant possible la mesure simultanée de l'expression de nombreux gènes, nous a permis d'établir les profils d'expression des gènes caractéristiques de chaque groupe de souris nourries avec le régime gras, dans le foie et le muscle squelettique. Les données que nous avons obtenues à partir de ces profils d'expression ont montré que des changements d'expression marqués se produisaient dans le foie et le muscle entre les différents groupes de souris nourries avec le régime gras. Dans l'ensemble, ces changements suggèrent que l'établissement du diabète de type II et de l'obésité induits par un régime gras est associé à une synthèse accrue de lipides par le foie et à un flux augmenté de lipides du foie jusqu'à la périphérie (muscles squelettiques). Dans un deuxième temps, ces profils d'expression des gènes ont été utilisés pour sélectionner un sous-ensemble de gènes suffisamment discriminants pour pouvoir distinguer entre les différents phénotypes. Ce sous-ensemble de gènes nous a permis de construire un classificateur phénotypique capable de prédire avec une précision relativement élevée le phénotype des souris. Dans le futur, de tels « prédicteurs » basés sur l'expression des gènes pourraient servir d'outils pour le diagnostic de pathologies liées au métabolisme. Summary: Aetiology of obesity and type II diabetes is multifactorial, involving both genetic and environmental factors, such as calory-rich diets or lack of exercice. Genetically homogenous C57BL/6J mice fed a high fat diet (HFD) up to nine months develop differential adaptation, becoming either obese and diabetic (ObD) or remaining lean in the presence (LD) or absence (LnD) of diabetes development. Each phenotype is associated with diverse metabolic alterations, which may result from diverse molecular adaptations of key organs involved in the control of energy homeostasis. In this study, we evaluated if specific patterns of gene expression could be associated with each different phenotype of HFD mice in the liver and the skeletal muscles. To perform this, we constructed a metabolic cDNA microarray containing approximately 700 cDNA representing genes involved in the main metabolic pathways of energy homeostasis. Our data indicate that the development of diet-induced obesity and type II diabetes is linked to some defects in lipid metabolism, involving a preserved hepatic lipogenesis and increased levels of very low density lipoproteins (VLDL). In skeletal muscles, an increase in fatty acids uptake, as suggested by the increased expression of lipoprotein lipase, would contribute to the increased level of insulin resistance observed in the ObD mice. Conversely, both groups of lean mice showed a reduced expression in lipogenic genes, particularly stearoyl-CoA desaturase 1 (Scd-1), a gene linked to sensitivity to diet-induced obesity. Secondly, we identified a subset of genes from expression profiles that classified with relative accuracy the different groups of mice. Such classifiers may be used in the future as diagnostic tools of each metabolic state in each tissue. Résumé Développement d'une puce à ADN métabolique et application à l'étude d'un modèle murin d'obésité et de diabète de type II L'étiologie de l'obésité et du diabète de type II est multifactorielle, impliquant à la fois des facteurs génétiques et environnementaux, tels que des régimes riches en calories ou un manque d'exercice physique. Des souris génétiquement homogènes C57BL/6J nourries avec un régime extrêmement gras (HFD) pendant 9 mois développent une adaptation métabolique différentielle, soit en devenant obèses et diabétiques (ObD), soit en restant minces en présence (LD) ou en absence (LnD) d'un diabète. Chaque phénotype est associé à diverses altérations métaboliques, qui pourraient résulter de diverses adaptations moléculaires des organes impliqués dans le contrôle de l'homéostasie énergétique. Dans cette étude, nous avons évalué si des profils d'expression des gènes dans le foie et le muscle squelettique pouvaient être associés à chacun des phénotypes de souris HFD. Dans ce but, nous avons développé une puce à ADN métabolique contenant approximativement 700 ADNc représentant des gènes impliqués dans les différentes voies métaboliques de l'homéostasie énergétique. Nos données indiquent que le développement de l'obésité et du diabète de type II induit par un régime gras est associé à certains défauts du métabolisme lipidique, impliquant une lipogenèse hépatique préservée et des niveaux de lipoprotéines de très faible densité (VLDL) augmentés. Au niveau du muscle squelettique, une augmentation du captage des acides gras, suggéré par l'expression augmentée de la lipoprotéine lipase, contribuerait à expliquer la résistance à l'insuline plus marquée observée chez les souris ObD. Au contraire, les souris minces ont montré une réduction marquée de l'expression des gènes lipogéniques, en particulier de la stéaroyl-CoA désaturase 1 (scd-1), un gène associé à la sensibilité au développement de l'obésité par un régime gras. Dans un deuxième temps, nous avons identifié un sous-ensemble de gènes à partir des profils d'expression, qui permettent de classifier avec une précision relativement élevée les différents groupes de souris. De tels classificateurs pourraient être utilisés dans le futur comme outils pour le diagnostic de l'état métabolique d'un tissu donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: Les séquences de ciné MR sont utiles pour rechercher une bicuspidie. Les séquences en contraste de phase permettent de mesurer les vitesses et flux transvalvulaires. La fraction de régurgitation est corrélée à la sévérité de l'insuffisance aortique. Une planimétrie peut être effectuée sur les séquences de ciné MR ou de flux. Résumé: L'étude de la valve aortique en IRM nécessite un placement rigoureux des plans de coupes à partir de 2 incidences orthogonales passant par la chambre de chasse. Les séquences de ciné IRM permettent une analyse dynamique de l'ouverture de la valve et sont utiles pour rechercher une bicuspidie et une dilatation de l'aorte. Leur sensibilité au flux turbulents est relativement faible vu leur TE court, à l'inverse des séquences en écho de gradient à TE long. Les séquences de ciné MR permettent également de calculer les volumes ventriculaires gauches et la fraction d'éjection, paramètres importants dans le traitement. Les séquences en contraste permettent de mesurer la vitesse trans-valvulaire et de calculer le volume éjecté dans l'aorte et le volume régurgité dans le ventricule gauche. Elles peuvent être réalisées dans le plan du flux ou au travers du plan. Il est important de régler correctement la vitesse de codage maximale afin d'éviter des erreurs de codage de vitesse (phénomène d'"aliasing"). Dans le cadre d'une insuffisance aortique, le ratio volume régurgité / volume éjecté, appelé fraction de régurgitation, est relié à la sévérité de la valvulopathie. L'IRM peut également permettre de réaliser une planimétrie de l'orifice valvulaire aortique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : The role of order effects has been widely shown and discussed in areas such as memory and social impression formation. This work focuses in a first half on order effects influencing the verdict chosen at the end of a criminal trial. Contrary to impression formation but according to trial's characteristics, it has been hypothesised that a recency effect would influence the verdict's choice. Three groups of students (N = 576) received a mock trial resume with a specific order stemming from the combination of three witnesses, one expert and two ocular witnesses. Results show a recency effect, the last testimony provoking significantly more acquittals if discriminating, and more condemnations if incriminating. The second half of this work starts from Gestalt and sociopsychological researches presenting numerous insights into cognitive organization of perceptions and opinions. It has been postulated that a witness probative value will change according to the emitted verdict, an incriminating witness or expert possessing a higher probative value in a condemning verdict than in an innocenting one, on the other hand a discriminating witness or expert having a higher probative value in an acquittal than in a condemnation. Results using a seven points scale measuring witnesses' probative value confirm this hypothesis. Argumentations written by the subjects to explain their verdict and refering to the accusing expert also show a congruency effect as categories of arguments are identical in case of condemnation or acquittal, the only difference between both types of verdicts residing in the frequency of these categories following the judgement, higher use of incriminating arguments in case of guiltiness and higher use of discriminating ones if the accused is found innocent. Résumé : L'intervention des effets sériels a fait l'objet de nombreuses recherches dans le domaine de la mémoire et de la formation d'impression en psychologie sociale. Ce travail s'intéresse dans une première partie aux effets d'ordre pouvant influencer le choix du verdict à la fin d'un procès pénal. Contrairement aux résultats obtenus en matière de formation d'impression, mais conformément aux caractéristiques d'un procès, l'hypothèse de l'intervention d'un effet de récence a été formulée, affirmant que les derniers témoins influencent le plus le choix du verdict. Trois groupes d'étudiants (N = 576) ont lu le résumé d'un procès fictif présentant trois témoignages, deux témoins visuels à décharge et un expert à charge. Chaque groupe recevait un ordre spécifique de présentation des témoins de sorte que l'expert se trouvait en première, deuxième ou troisième position. Les résultats montrent un effet de récence, le dernier témoin provoquant davantage d'acquittements s'il est disculpant et davantage de condamnations s'il est inculpant. La seconde partie de ce travail émane des recherches effectuées dans le domaine de la théorie de la forme et de la psychologie sociale ayant un intérêt marqué pour l'organisation cognitive de nos perceptions et de nos opinions. L'hypothèse que nous avons posée souligne le lien entretenu entre l'évaluation de la force probante d'un témoin et le verdict émis : un témoignage discriminant possédera plus de poids en cas d'acquittement qu'en cas de condamnation, inversement un témoignage incriminant aura plus de poids en cas de condamnation qu'en cas d'acquittement. L'utilisation d'une échelle en sept points mesurant la force probante des deux types de témoins confirme cette hypothèse, l'estimation de la valeur accordée à un même témoin variant selon le type de verdict choisi. Les argumentations de chaque verdict ont également montré que les catégories d'arguments se référant à l'expert étaient identiques en cas de condamnation ou d'acquittement de l'inculpé, par contre les fréquences de ces catégories entretiennent un lien congruent avec le verdict, celles inculpantes étant majoritairement utilisées pour asseoir la culpabilité mais peu représentées en cas d'acquittement, inversement celles disculpantes apparaissant bien plus lorsqu'il s'agit d'innocenter l'inculpé que pour le condamner.