1000 resultados para IMI-BAS
Resumo:
Estimer la filtration glomérulaire chez les personnes âgées, tout en tenant compte de la difficulté supplémentaire d'évaluer leur masse musculaire, est difficile et particulièrement important pour la prescription de médicaments. Le taux plasmatique de la creatinine dépend à la fois de la fraction d'élimination rénale et extra-rénale et de la masse musculaire. Actuellement, pour estimer là filtration glomérulaire différentes formules sont utilisées, qui se fondent principalement sur la valeur de la créatinine. Néanmoins, en raison de la fraction éliminée par les voies tubulaires et intestinales la clairance de la créatinine surestime généralement le taux de filtration glomérulaire (GFR). Le but de cette étude est de vérifier la fiabilité de certains marqueurs et algorithmes de la fonction rénale actuellement utilisés et d'évaluer l'avantage additionnel de prendre en considération la masse musculaire mesurée par la bio-impédance dans une population âgée (> 70 ans) et avec une fonction rénale chronique compromise basée sur MDRD eGFR (CKD stades lll-IV). Dans cette étude, nous comparons 5 équations développées pour estimer la fonction rénale et basées respectivement sur la créatinine sérique (Cockcroft et MDRD), la cystatine C (Larsson), la créatinine combinée à la bêta-trace protéine (White), et la créatinine ajustée à la masse musculaire obtenue par analyse de la bio-impédance (MacDonald). La bio-impédance est une méthode couramment utilisée pour estimer la composition corporelle basée sur l'étude des propriétés électriques passives et de la géométrie des tissus biologiques. Cela permet d'estimer les volumes relatifs des différents tissus ou des fluides dans le corps, comme par exemple l'eau corporelle totale, la masse musculaire (=masse maigre) et la masse grasse corporelle. Nous avons évalué, dans une population âgée d'un service interne, et en utilisant la clairance de l'inuline (single shot) comme le « gold standard », les algorithmes de Cockcroft (GFR CKC), MDRD, Larsson (cystatine C, GFR CYS), White (beta trace protein, GFR BTP) et Macdonald (GFR = ALM, la masse musculaire par bio-impédance. Les résultats ont montré que le GFR (mean ± SD) mesurée avec l'inuline et calculée avec les algorithmes étaient respectivement de : 34.9±20 ml/min pour l'inuline, 46.7±18.5 ml/min pour CKC, 47.2±23 ml/min pour CYS, 54.4±18.2ml/min pour BTP, 49±15.9 ml/min pour MDRD et 32.9±27.2ml/min pour ALM. Les courbes ROC comparant la sensibilité et la spécificité, l'aire sous la courbe (AUC) et l'intervalle de confiance 95% étaient respectivement de : CKC 0 68 (055-0 81) MDRD 0.76 (0.64-0.87), Cystatin C 0.82 (0.72-0.92), BTP 0.75 (0.63-0.87), ALM 0.65 (0.52-0.78). ' En conclusion, les algorithmes comparés dans cette étude surestiment la GFR dans la population agee et hospitalisée, avec des polymorbidités et une classe CKD lll-IV. L'utilisation de l'impédance bioelectrique pour réduire l'erreur de l'estimation du GFR basé sur la créatinine n'a fourni aucune contribution significative, au contraire, elle a montré de moins bons résultats en comparaison aux autres equations. En fait dans cette étude 75% des patients ont changé leur classification CKD avec MacDonald (créatinine et masse musculaire), contre 49% avec CYS (cystatine C), 56% avec MDRD,52% avec Cockcroft et 65% avec BTP. Les meilleurs résultats ont été obtenus avec Larsson (CYS C) et la formule de Cockcroft.
Resumo:
RÉSUMÉ Plusieurs auteurs ont étudié la perception en fonction de la psychopathologie. Dans cette optique, Borgeat, David, Saucier et Dumont en 1994 et Borgeat, Sauvageau, David et Saucier en 1997 ont utilisé la méthode tachistoscopique afin de comparer, dans une étude prospective, la perception de stimuli émotionnels entre des femmes souffrant d'une dépression du post- partum et des femmes non atteintes. Par ailleurs, des études antérieures, notamment les travaux de MacLeod et Rutherford en 1992, avaient montré la possibilité d'un processus de perception différent entre sujets anxieux et non anxieux. L'étude actuelle pose l'hypothèse d'une interaction entre caractéristiques du stimulus et trouble anxieux du sujet. Cette hypothèse suppose donc un processus préconscient de l'information, avec analyse sémantique de cette dernière, à même d'influencer (inhiber ou faciliter) la perception de certains stimuli en fonction de leur charge affective. L'étude que nous présentons a pour but d'évaluer la perception de stimuli anxiogènes chez les patients atteints de troubles anxieux, et plus particulièrement chez des sujets souffrant d'attaque de panique et de troubles obsessionnels-compulsifs. A cette fin, nous avons choisi, contrairement à la plupart des études effectuées jusqu'à présent où la méthode Stroop avait été utilisée, la technique tachistoscopique qui, à notre avis, permet une mesure plus directe de la rapidité du processus perceptuel. Ainsi, trois groupes de sujets ont pris part à l'étude : un groupe contrôle (N = 22), un groupe de patients souffrant d'attaques de panique (N = 21) et un groupe de patients atteints de troubles obsessionnels-compulsifs (N = 20). Ces 63 sujets, âgés entre 18 et 60 ans, ont à la fois répondu au Fear Questionnaire ainsi qu'au Questionnaire Beck 13 pour la dépression et procédé à la reconnaissance de 42 mots (six groupes de sept mots) présentés aléatoirement à l'ordinateur, en cycles successifs de 15 millisecondes. Cinq parmi les six groupes de mots se référaient à un trouble anxieux spécifique, le sixième étant considéré comme un groupe de mots « neutres ». Le temps, en millisecondes, nécessaire à la reconnaissance de chaque mot a été enregistré. Les résultats montrent une lenteur de la part des patients souffrant d'attaques de panique pour la reconnaissance de tous les stimuli par rapport aux sujets contrôle, avec une performance intermédiaire entre les deux groupes pour les patients atteints de troubles obsessionnels-compulsifs. De plus, l'analyse statistique a révélé deux effets d'interaction : les patients atteints d'attaques de panique sont plus rapides à reconnaître le groupe de mots en rapport avec leur angoisse, de même que les patients soufflant de troubles obsessionnels- compulsifs ont un temps moyen de reconnaissance des mots en rapport avec leur trouble plus bas que prévu. Ces résultats amènent à une double conclusion. La première est que les patients anxieux manifestent une défense perceptuelle globale face aux stimuli anxiogènes en général, et que cette défense est plus marquée chez les patients atteints d'attaques de panique que chez les sujets souffrant de troubles obsessionnels-compulsifs. La deuxième est que ces mêmes patients, confrontés à des stimuli en rapport avec leur propre angoisse, montrent une vigilance accrue. Ainsi, ces données évoquent une double stratégie de traitement de l'information chez les patients anxieux : un évitement perceptuel général face à l'information émotionnellement chargée, et un traitement sélectif de l'information ayant un rapport direct avec l'angoisse dont ils soufflent. SUMMARY Prior research by MacLeod and Rutherford (1992) indicates that anxious subjects could have perceptual strategies different from nonanxious subjects. 42 verbal stimuli of six types (disease, social anxiety, panic, agoraphobia, obsessive-compulsive, and neutral) were tachistoscopically presented to three groups of subjects, aged 18 to 60 years: Panic Disorder group (n =21: 13 women and 8 men), and Obsessive-Compulsive Disorder group (n=20: 14 women and 6 men), recruited from an outpatient clinic, and a Control group (n=22: 14 women and 8 men), recruited among students and hospital staff. The times required for correct identification were generally longer for anxious subjects but quicker for stimuli specifically related to their disorder. The data could indicate a two-step perceptual strategy or two distinct ways of perceiving, usually, a generalized perceptual defense for a majority of anxiety-loaded stimuli, but also a selectively facilitated processing for stimuli specific to the disorder.
Resumo:
RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.
Resumo:
O experimento foi realizado na Fazenda Três Irmãos, no município de Pratânia, Estado de São Paulo, com o objetivo de estudar o efeito da fertirrigação com diferentes doses de NPK aplicadas por meio de um sistema de irrigação por microaspersão na cultura da laranja em comparação com a adubação convencional irrigada e não irrigada. A avaliação dos efeitos da irrigação e da fertirrigação na cultura foi feita com base na produção e qualidade dos frutos colhidos, na análise de solo da camada de 0-20 cm e na análise de folhas. Os tratamentos não influenciaram significativamente a produtividade de acordo com a análise estatística realizada, embora se tenha observado uma tendência de maior produtividade nos tratamentos de fertirrigação para uma mesma dose. A análise de qualidade dos frutos não mostrou diferenças significativas entre os tratamentos. Os teores de alguns dos elementos obtidos na análise de solo apresentaram diferenças significativas proporcionadas pela irrigação e/ou modo de aplicação dos fertilizantes à cultura. A análise de folhas diferiu quanto aos teores de Ca, Mg e K.
Resumo:
O presente trabalho foi desenvolvido na Área Experimental de Irrigação da Faculdade de Ciências Agrárias e Veterinárias de Jaboticabal/Unesp, com o objetivo de avaliar o efeito da fertirrigação sobre o teor foliar de macro e de micronutrientes, a massa fresca de raízes e a qualidade do suco de frutos em um pomar de laranja-'Valência'. Os tratamentos utilizados foram: (SI) sem irrigação e adubação com fertilizante sólido parcelado em quatro vezes; (MI-100) fertirrigação por microaspersão com 100% da evapotranspiração; (MI-50) fertirrigação por microaspersão com 50% da evapotranspiração; (G-100) fertirrigação por gotejamento com 100% da evapotranspiração; e (G-50) fertirrigação por gotejamento com 50% da evapotranspiração. Os teores de macro e micronutrientes nas folhas não foram alterados pela irrigação, pelos sistemas de fertirrigação e pela lâmina de água aplicada. A acidez total titulável foi superior no tratamento sem irrigação, e a % de suco no fruto e "ratio" não foram afetadas pelos tratamentos com e sem irrigação. A massa fresca de raiz foi maior nos tratamentos irrigados, porém não foram constatadas para esse parâmetro diferenças entre os sistemas de gotejamento e microaspersão. A maior concentração de raízes ocorreu até 10 cm de profundidade e até 30 cm de distância do emissor.
Resumo:
Liver glucose metabolism plays a central role in glucose homeostasis and may also regulate feeding and energy expenditure. Here we assessed the impact of glucose transporter 2 (Glut2) gene inactivation in adult mouse liver (LG2KO mice). Loss of Glut2 suppressed hepatic glucose uptake but not glucose output. In the fasted state, expression of carbohydrate-responsive element-binding protein (ChREBP) and its glycolytic and lipogenic target genes was abnormally elevated. Feeding, energy expenditure, and insulin sensitivity were identical in LG2KO and control mice. Glucose tolerance was initially normal after Glut2 inactivation, but LG2KO mice exhibited progressive impairment of glucose-stimulated insulin secretion even though β cell mass and insulin content remained normal. Liver transcript profiling revealed a coordinated downregulation of cholesterol biosynthesis genes in LG2KO mice that was associated with reduced hepatic cholesterol in fasted mice and reduced bile acids (BAs) in feces, with a similar trend in plasma. We showed that chronic BAs or farnesoid X receptor (FXR) agonist treatment of primary islets increases glucose-stimulated insulin secretion, an effect not seen in islets from Fxr-/- mice. Collectively, our data show that glucose sensing by the liver controls β cell glucose competence and suggest BAs as a potential mechanistic link.
Resumo:
A poda é uma prática cultural de grande importância para o cultivo da pinheira, influenciando no fenômeno da diferenciação floral de maneira a permitir frutificação fora de época, o que constitui uma importante alternativa econômica para as diversas regiões produtoras. O experimento foi conduzido no período de 21 de junho a 15 de novembro de 2000, em condições de clima semi-árido, no município de Tanhaçu -BA, com o objetivo de avaliar a influência que a poda de produção, executada em ramos com diferentes diâmetros, exerce sobre o desenvolvimento vegetativo e reprodutivo da pinheira. Utilizou-se o delineamento experimental em blocos casualizados, com sete repetições e três plantas por parcela. Os tratamentos utilizados foram: T1- ramos grossos (11-14 mm de diâmetro); T2- ramos medianos (7-10 mm de diâmetro); T3- ramos finos (3-6 mm de diâmetro). Constatou-se, nas condições estudadas, que o crescimento dos ramos e vigor das flores foram maiores para os ramos grossos, porém, os diferentes diâmetros não influenciaram na qualidade dos frutos (características físicas e químicas).
Resumo:
SUMMARY Barrett's esophagus (BE) is an acquired condition in which the normal squamous epithelium in the distal esophagus is replaced by a metaplastic columnar epithelium, as a complication of chronic gastroesophageal reflux. The clinical significance of this disease is its associated predisposition to esophageal adenocarcinoma (EAC). EAC is a highly lethal disease. Better understanding of the pathogenesis of columnar metaplasia and its progression to cancer might allow the identification of biomarkers that can be used for early diagnosis, which will improve the patient survival. In this study, an improved protocol for methylation-sensitive single-strand conformation analysis, which is used to analyze promoter methylation, is proposed and a methylation-sensitive dot blot assay is described, which allows a rapid, easy, and sensitive detection of promoter methylation. Both methods were applied to study the methylation pattern of the APC promoter in histologically normal appearing gastric mucosa. The APC promoter showed monoallelic methylation, and because the methylated allele differed between the different gastric cell types, this corresponded to allelic exclusion. The APC methylation pattern was frequently altered in noimal gastric mucosa associated with neoplastic lesions, indicating that changes in the pattern of promoter methylation might precede the development of neoplasia, without accompanying histological manifestations. An epigenetic profile of 10 genes important in EAC was obtained in this study; 5 promoter genes (APC, TIMP3, TERT, CDKN2A and SFRP1) were found to be hypermethylated in the tumors. Furthermore, the promoter of APC, TIMP3 and TERT was frequently methylated in BE samples from EAC patients, but rarely in BE samples that did not progress to EAC. These three biomarkers might therefore be considered as potential predictive markers for increased EAC risk. Analysis of Wnt pathway alterations indicated that WNT2 ligand is overexpressed as early as the low-grade dysplastic stage and downregulation by promoter methylation of the SFRP1 gene occurrs already in the metaplastic lesions. Moreover, loss of APC expression is not the only factor involved in the activation of the Wnt pathway. These results indicate that a variety of biologic, mostly epigenetic events occurs very early in the carcinogenesis of BE. This new information might lead to improved early diagnosis of EAC and thus open the way to a possible application of these biomarkers in the prediction of increased EAC risk progression. RESUME L'oesophage de Barrett est une lésion métaplasique définie par le remplacement de la muqueuse malpighienne du bas oesophage par une muqueuse cylindrique glandulaire, suite à une agression chronique par du reflux gastro-esophagien. La plus importante signification clinique de cette maladie est sa prédisposition au développement d'un adénocarcinome. Le pronostic de l'adénocarcinome sur oesophage de Barrett est sombre. Seule une meilleure compréhension de la pathogenèse de l'épithélium métaplasique et de sa progression néoplasique permettrait l'identification de biomarqueurs pouvant être utilisés pour un diagnostic précoce ; la survie du patient serait ainsi augmentée. Dans cette étude, un protocole amélioré pour l'analyse de la méthylation par conformation simple brin est proposé. De plus, une technique d'analyse par dot blot permettant une détection rapide, facile et sensible de la méthylation d'un promoteur est décrite. Les deux méthodes ont été appliquées à l'étude de la méthylation du promoteur du gène APC dans des muqueuses gastriques histologiquement normales. Le promoteur APC a montré une méthylation monoallélique et, parce que les allèles méthylés différaient entre les différents types de cellules gastriques, celle-ci correspondait à une méthylation allélique exclusive. La méthylation d'APC a été trouvée fréquemment altérée dans la muqueuse gastrique normale associée à des lésions néoplasiques. Ceci indique que des changements dans la méthylation d'un promoteur peuvent précéder le développement d'une tumeur, et cela sans modification histologique. Un profil épigénétique des adénocarcinomes sur oesophage de Barrett a été obtenu dans cette étude. Cinq promoteurs (APC, TIMP3, TERT, CDKN2A et SFRP1) ont été trouvés hyperméthylés dans les tumeurs. Les promoteurs d'APC, TIMP3 et TERT étaient fréquemment méthylés dans l'épithélium métaplasique proche d'un adénocarcinome et rarement dans l'épithélium sans évolution néoplasique. Ces trois biomarkers pourraient par conséquent être considérés comme marqueur prédicatif d'un risque accru de développer une tumeur. L'analyse des altérations de la voie Wnt a montré que WNT2 est surexprimé déjà dans des dysplasies de bas-grade et que la dérégulation de SFRP1 par méthylation de son promoteur intervenait dans les lésions métaplasiques. Une perte d'expression d'APC n'est pas le seul facteur impliqué dans l'activation de cette voie. Ces résultats montrent qu'une grande diversité d'événements biologiques, principalement épigénétiques, surviennent très tôt lors de la carcinogenèse de l'oesophage de Barrett. Ces nouveaux éléments pourraient améliorer le diagnostic précoce et rendre possible l'application de ces biomarqueurs dans la prédiction d'un risque accru de développer un adénocarcinome sur un oesophage de Barrett.
Resumo:
Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.
Resumo:
Résumé: Le complexe du Mont Collon (nappe de la Dent Blanche, Austroalpin) est l'un des exemples les mieux préservés du magmatisme mafique permien des Alpes occidentales. Il est composé d'affleurements discontinus et d'une stratification magmatique en son centre (Dents de Bertol) et est composé à 95% de roches mafiques cumulatives (gabbros à olivine et/ou cpx, anorthositiques, troctolites, wehrlites et wehrlites à plagioclase) et localement de quelques gabbros pegmatitiques. Ces faciès sont recoupés par de nombreux filons acides (aphtes, pegmatites quartziques, microgranodiorites et filons anorthositiques) et mafiques tardifs (dikes mélanocrates riches en Fe et Ti). Les calculs thermométriques (équilibre olivine-augite) montrent des températures de 1070-1120 ± 6°C, tandis que le thermomètre amphibole-plagioclase indique une température de 740 ± 40°C à 0.5 GPa pour les amphiboles magmatiques tardives. La geobarométrie sur pyroxène donne des pressions moyennes de 0.3-0.6 GPa, indiquant un emplacement dans la croûte moyenne. De plus, les températures obtenues sur des amphiboles coronitiques indiquent des températures de l'ordre de 700 ± 40°C confirmant que les réactions coronitiques apparaissent dans des conditions subsolidus. Les âges concordants U/Pb sur zircons de 284.2 ± 0.6 et 282.9 ± 0.6 Ma obtenus sur un gabbro pegmatitique et une pegmatitique quartzique, sont interprétés comme des âges de cristallisation. Les datations 40Ar/39Ar sur amphiboles des filons mélanocrates donnent un âge plateau de 260.2 ± 0.7 Ma, qui est probablement très proche de l'âge de cristallisation. Ainsi, cet age 40Ar/39Ar indique un second évènement magmatique au sein du complexe. Les compositions des roches totales en éléments majeurs et traces montrent peu de variations, ainsi que le Mg# (75-80). Les éléments traces enregistrent le caractère cumulatif des roches (anomalie positive en Eu) et révèlent des anomalies négatives systématiques en Nb, Ta, Zr, Hf et Ti dans les faciès basiques. Le manque de corrélation entre éléments majeurs et traces est caractéristique d'un processus de cristallisation in situ impliquant une quantité variable de liquide interstitiel (L) entre les phases cumulus. Les distributions des éléments traces dans les minéraux sont homogènes, indiquant une rééquilibration .subsolidus entre cristaux et liquide interstitiel. Un modèle quantitatif basé sur les équations de cristallisation in situ de Langmuir reproduisent correctement les concentrations en terres rares légères des minéraux cumulatifs montrant la présence de 0 à 35% de liquide interstitiel L pour des degrés de différenciation F de 0 à 45%, par rapport au faciès les moins évolués du complexe. En outre, les valeurs de L sont bien corrélées avec les proportions modales d'amphibole interstitielle et les concentrations en éléments incompatibles des roches (Zr, Nb). Le liquide parental calculé des cumulats du Mont Collon est caractérisé par un enrichissement relatif en terres rares légères et Th, un appauvrissement en terres rares lourdes typique d'une affinité transitionnelle (T-MORB) et une forte anomalie négative en Nb-Ta. Les roches cumulatives montrent des compositions isotopiques en Nd-Sr proches de la terre globale silicatée (BSE), soit 0.6<εNdi<+3.2, 0.7045<87Sr/86Sri<0.7056. Les rapports initiaux en Pb indiquent une source dans le manteau enrichi subcontinental lithosphérique, préalablement contaminé par des sédiments océaniques. Les dikes mélanocrates Fe-Ti sont représentatifs de liquides et ont des spectres de terres rares enrichis, une anomalie positive en Nb-Ta et des εNdi de +7, des 87Sr/86Sri de 0.703 et des rapports initiaux en Pb, similaires à ceux des basaltes d'île océanique, indiquant une source asthénosphérique modérément appauvrie. Ainsi, la fusion partielle du manteau lithosphérique subcontinental est induite par l'amincissement post-orogénique et la remontée de l'asthénosphère. Les filons mélanocrates proviennent, après délamination du manteau lithosphérique, de la fusion de l'asthénosphère. Abstract The early Permian Mont Collon mafic complex (Dent Blanche nappe, Austroalpine nappe system) is one of the best preserved examples of the Permian mafic magmatism in the Western Alps. It is composed of discontinuous exposures and a well-preserved magmatic layering (the Dents de Bertol cliff) crops out in the center part of the complex. It mainly consists of cumulative mafic rocks, which represent 95 vol-% of the mafic complex (ol- and cpx-bearing gabbros and rare anorthositic layers, troctolites, wehrlites and plagioclase-wehrlites) and locally pegmatitic gabbros. All these facies are crosscut by widespread acidic (aplites, quartz-rich pegmatites, microgranodiorites) and late mafic Fe-Ti melanocratic dikes. Olivine-augite thermometric calculations yield a range of 1070-1120 ± 6°C, while amphibole-plagioclase thermometer yields a temperature of 740 ± 40°C at 0.5 GPa. Pyroxene geobarometry points to a pressure of 0.3-0.6 GPa, indicating a middle crustal level of emplacement. Moreover, temperature calculations on the Mont Conon coronitic amphiboles indicate temperatures of 700 ± 40°C, close to those calculated for magmatic amphiboles. These temperatures confirm that coronitic reactions occurred at subsolidus conditions. ID-TIMS U/Pb zircon ages of 284.2 ± 0.6 and 282.9 ± 0.6 Ma obtained on a pegmatitic gabbro and a quartz-pegmatitic dike, respectively, were interpreted as the crystallization ages of these rocks. 40Ar/39Ar dating on amphiboles from Fe-Ti melanocratic dikes yields a plateau age of 260.2 ± 0.7 Ma, which is probably very close to the crystallization age. Consequently, this 40Ar/P39Ar age indicates a second magmatic event. Whole-rock major- and trace-element compositions show little variation across the whole intrusion and Mg-number stays within a narrow range (75-80). Trace-element concentrations record the cumulative nature of the rocks (e.g. positive Eu anomaly) and reveal systematic Nb, Ta, Zr, Hf and Ti negative anomalies for all basic facies. The lack of correlation between major and trace elements is characteristic of an in situ crystallization process involving variable amounts of interstitial liquid (L) trapped between the cumulus mineral phases. LA-ICPMS measurements show that trace-element distributions in minerals are homogeneous, pointing to subsolidus re-equilibration between crystals and interstitial melts. A quantitative modeling based on Langmuir's in situ crystallization equation successfully reproduced the Rare Earth Element (REE) concentrations in cumulitic minerals. The calculated amounts of interstitial liquid L vary between 0 and 35% for degrees of differentiation F of 0 to 45%, relative to the least evolved facies of the intrusion. Furthermore, L values are well correlated with the modal proportions of interstitial amphibole and whole-rock incompatible trace-element concentrations (e.g. Zr, Nb) of the tested samples. The calculated parental melt of the Mont Collon cumulates is characterized by a relative enrichment in Light REE and Th, a depletion in Heavy REE, typical of a transitional affinity (T-MORB), and strong negative Nb-Ta anomaly. Cumulative rocks display Nd-Sr isotopic compositions close to the BSE (-0.6 < εNdi < +3.2, 0.7045 < 87Sr/86Sri < 0.7056). Initial Pb ratios point to an origin from the melting of an enriched subcontinental lithospheric mantle source, previously contaminated at the source by oceanic sediments. The contrasted alkaline Fe-Ti melanocratic dikes are representative of liquids. They display enriched fractionated REE patterns, a positive Nb-Ta anomaly and εNdi of +7, 87Sr/86Sri of 0.703 and initial Pb ratios, all reminiscent of Ocean Island Basalt-type rocks, pointing to a moderately
Resumo:
Résumé L'arrivée en force de l'imagerie numérique de bonne qualité à un prix abordable m'a fait réfléchir à la meilleure manière de l'intégrer dans la pratique courante de l'enseignement de la dermatologie, spécialité très visuelle. Comment mettre à profit la richesse des images et les nombreuses possibilités pédagogiques que l'informatique offre. J'ai étudié quelques produits existant sur le marché; je constate que les possibilités offertes par l'informatique restent souvent sous exploitées. Les réalisations manquent de liens hypertextes et la facilité d'accès aux images que permet l'informatique n'est pas appliquée. Les images sont trop souvent présentées avec une légende trop brève, ne soulignant pas les points importants pour le diagnostic. Certains outils ne proposent même pas de diagnostics différentiels. Ma réflexion me pousse à croire que l'apprentissage doit se faire par l'image. L'étudiant doit y apprendre les bases du diagnostic morphologique, trouver ce qui lui permet de poser le diagnostic. Compte tenu de mes observations, j'ai développé à Lausanne mon propre atlas interactif de diagnostics différentiels, basé sur la comparaison d'images. Mon projet n'a donc pas pour but de remplacer un livre ou un atlas, mais je souhaite compléter les moyens d'apprentissage basés sur l'image. Sa particularité tient dans la manière dont on a sélectionné les diagnostics différentiels; mon critère principal n'a pas été un choix théorique, mais la ressemblance entre deux images de ma bibliothèque. Cette manière de procéder m'a forcé à résoudre quelques questions fondamentales à propos des diagnostics différentiels. J'ai prêté une attention particulière à ce que l'utilisateur replace aisément les 850 images dans une structure que j'ai voulue claire. Cela m'a poussé à réfléchir sur la manière dont on aborde la dermatologie: par localisation, d'après les lésions, selon l'âge ou d'après des critères de physiopathologie ? Chaque image est accessible par la table des matières originale, soit par un module de recherche multicritère. Mon produit est personnalisable grâce à la présence de plusieurs outils. "Le Petit Rouvé", première version, est maintenant disponible pour une phase de test. Dans un second temps, l'atlas sera distribué aux étudiants de 4ème et 6ème année de la Faculté de médecine de Lausanne pour la rentrée de 2004-2005.
Resumo:
L?objectif de ce travail de recherche était de décrypter l?évolution géodynamique de la Péninsule de Biga (Turquie du N-O), à travers l?analyse de deux régions géologiques peu connues, le mélange de Çetmi et la zone d?Ezine (i.e. le Groupe d?Ezine et l?ophiolite de Denizgören). Une étude complète et détaillée de terrain (cartographie et échantillonnage) ainsi qu?une approche multidisciplinaire (sédimentologie de faciès, pétrographie sédimentaire et magmatique, micropaléontologie, datations absolues, géochimie sur roche totale, cristallinité de l?illite) ont permis d?obtenir de nouveaux éléments d?information sur la région considérée. ? Le mélange de Çetmi, de type mélange d?accrétion, affleure au nord et au sud de la Péninsule de Biga ; les principaux résultats de son étude peuvent se résumer comme suit: - Son aspect structural actuel (nature des contacts, organisation tectonique) est principalement dû au régime extensif Tertiaire présent dans la région. - Il est constitué de blocs de différentes natures : rares calcaires Scythien-Ladinien dans le faciès Han Bulog, blocs hectométriques de calcaires d?âge Norien-Rhaetien de rampe carbonatée, nombreux blocs décamétriques de radiolarites rouges d?âge Bajocien- Aptien, blocs/écailles de roches magmatiques de type spilites (basaltes à andésite), ayant des signatures géochimiques d?arcs ou intra-plaques. - La matrice du mélange est constituée d?une association greywacke-argilites dont l?âge Albien inférieur à moyen a été déterminé par palynologie. - L?activité du mélange s?est terminée avant le Cénomanien (discordance Cénomanienne au sommet du mélange, pas de bloc plus jeune que la matrice). - Du point de vue de ses corrélations latérales, le mélange de Çetmi partage plus de traits communs avec les mélanges se trouvant dans les nappes allochtones du Rhodope (nord de la Grèce et sud-ouest de la Bulgarie) qu?avec ceux de la suture Izmir-Ankara (Turquie); il apparaît finalement que sa mise en place s?est faite dans une logique balkanique (chevauchements vers le nord d?âge anté-Cénomanien). ? Le Groupe d?Ezine et l?ophiolite sus-jacente de Denizgören affleurent dans la partie ouest de la Péninsule de Biga. Le Groupe d?Ezine est une épaisse séquence sédimentaire continue (3000 m), subdivisée en trois formations, caractérisée chacune par un type de sédimentation spécifique, relatif à un environnement de dépôt particulier. De par ses caractéristiques (grande épaisseur, variations latérales de faciès et d?épaisseur dans les formations, érosion de matériel provenant de l?amont du bassin), le groupe d?Ezine est interprétée comme un dépôt syn-rift d?âge Permien moyen-Trias inférieur. Il pourrait représenter une partie de la future marge passive sud Rhodopienne à la suite de l?ouverture de l?océan Maliac/Méliata. L?ophiolite de Denizgören sus-jacente repose sur le Groupe d?Ezine par l?intermédiaire d?une semelle métamorphique à gradient inverse, du faciès amphibolite à schiste vert. L?âge du faciès amphibolite suggère une initiation de l?obduction au Barrémien (125 Ma, âge Ar/Ar); cet âge est unique dans le domaine égéen, mais il peut là aussi être relié à une logique balkanique, sur la base de comparaison avec le domaine Rhodopien. ? Toutes les unités précédentes (mélange de Çetmi, Groupe d?Ezine et ophiolite de Denizgören) ont passivement subi trois phases extensives pendant le Tertiaire. Dans la région d?Ezine et du mélange nord, les micaschistes HP sous-jacents ont été exhumés avant l?Eocène moyen. Dans le cas du mélange sud, cette exhumation Eocene est en partie enregistrée dans les mylonites séparant le mélange du dôme métamorphique sous-jacent du Kazda?. Le mélange sud est dans tous les cas fortement érodé à la suite de la double surrection du dôme du Kazda?, près de la lim ite Oligocène/Miocene et pendant le Plio- Quaternaire. Dans le premier cas, ce soulèvement est caractérisé par le développement d?une faille de détachement à faible pendage, qui contrôle à la fois l?exhumation du massif, et la formation d?un bassin sédimentaire syntectonique, de type bassin supradétachement; quant à la phase extensive la plus récente, elle est contrôlée par le jeu de failles normales à forts pendages qui remanient l?ensemble des structures héritées, et dictent la géomorphologie actuelle de la région. ? Il est possible de proposer un scénario pour l?évolution géodynamique de la Péninsule de Biga, basé sur l?ensemble des résultats précédents et sur les données de la géologie régionale ; ses points principaux sont: - La Péninsule de Biga fait partie de la marge Rhodopienne. - Le Groupe d?Ezine est un témoin de la marge passive nord Maliac/Méliata. - L?ophiolite de Denizgören et le mélange de Çetmi ont été mis en place tous deux vers le nord sur la marge précédente, respectivement au Barrémien et à l?Albien terminal- Cénomanien inférieur. - Une forte composante décrochante durant l?emplacement est suggérée par la préservation de fragments de la marge passive et l?absence de métamorphisme dans la plaque inférieure. - Tous les évènements précédents ont été largement affectés par le régime d?extension Tertiaire.<br/><br/>The purpose of this study is to unravel the geodynamic evolution of the Biga Peninsula (NW Turkey) through the detailed study of two poorly known areas, the Çetmi mélange and the Ezine zone (i.e. the Ezine Group and the Denizgören ophiolite). The methodology was based on a detailed field work and a multidisciplinary approach. ? The accretion-related Çetmi mélange is mainly cropping out north and south of the Biga Peninsula; the main results of its study can be summarized as follows: -Its present-day structural aspect (type of contacts, tectonic organisation) is largely inherited from the Tertiary extensional regime in the region. -It is made of blocks of various natures: Han Bulog limestones with a Scythian to Ladinian age, common carbonate ramp Norian-Rhaetian limestones (biggest blocks of the mélange), red radolarite with a Bajocian to Aptian age; the most common lithology of the mélange is made by block/slices of spilitic magmatic rocks (basalt to andesite); they have volcanic arc or within plate basalt geochemical signatures. -The matrix of the mélange is made of a greywacke-shale association of Early-Middle Albian age. - The mélange stopped its activity before the Cenomanian (no younger blocks than the matrix, and Cenomanian unconformity). - If compared to the regional geology, the Çetmi mélange shares some characteristics with the Izmir-Ankara mélanges (less), and with the mélanges from allochthonous nappes found in eastern Rhodope (more); it appears finally that its emplacement is related to a Balkanic logic (ante-Cenomanian northward thrusting). ? The Ezine Group and the overlying Denizgören ophiolite are cropping out in the western part of the Biga Peninsula. The Ezine Group is a thick sedimentary sequence interpreted as a syn-rift deposit of Middle Permian-Early Triassic age. It represents a part of the south Rhodopian passive margin, following the opening of the Maliac/Meliata oceanic domain. The Denizgören ophiolite has been emplaced northward on the Ezine Group in the Barremian (125 Ma, age of the amphibolitic sole); this age is unique in the Aegean domain, but here again, it may be related to a Balkan logic. ? All the previous units (Çetmi mélange, Ezine Group and Denizgören ophiolite) have passively suffered two extensional regimes during the Tertiary. In the Ezine and northern Çetmi mélange area, the underlying HP Çamlýca micaschists were exhumed before the Middle Eocene. As for the southern mélange, it was strongly eroded following the Late Oligocene to Quaternary uplift of the underlying Kazda? Massif. This uplift was characterized by the development of a low-angle detachment fault controlling a part of the exhumation, as well as the development of a supra-detachment basin. ? Based on the previous results, and on the data from the regional geology, one can propose a scenario for the geodynamic evolution of the Biga Peninsula. Its key points are:- The Biga Peninsula is belonging to the Rhodope margin. - The Ezine Group is a remnant of the northern Maliac/Meliata passive margin. - Both the Denizgören ophiolite and the Çetmi mélange have been emplaced northward on the previous margin, respectively in the Barremian and in the Late Albian-Early Cenomanian times. - The preservation of the remnants of the Rhodope margin, as well as the absence of metamorphism in the lower plate suggest a strong strike-slip component during the emplacements. - All the previous events are (at least) partly obliterated by the Tertiary extensional regime.<br/><br/>Le géologue est comme un «historien» de la Terre, qui porte un intérêt particulier à l?étude du passé de notre planète; ce dernier, très ancien, se mesure en dizaines ou centaines de millions d?années (Ma). Or le visage de la terre a constamment évolué au cours des ces millions d?années écoulés, car les plaques (continentales et océaniques) qui composent son enveloppe superficielle ne restent pas immobiles, mais se déplacent continuellement à sa surface, à une vitesse de l?ordre du cm/an (théorie de la tectonique des plaques); c?est ainsi, par exemple, que des océans naissent, grandissent, puis finissent par se refermer. On appelle sutures océaniques, les zones, aujourd?hui sur la terre ferme, où l?on retrouve les restes d?océans disparus. Ces sutures sont caractérisées par deux associations distinctes de roches, que l?on appelle les mélanges et les ophiolites; ces mélanges et ophiolites sont donc les témoins de l?activité passée d?un océan aujourd?hui refermé. L?équipe de recherche dans laquelle ce travail à été réalisé s?intéresse à un vaste domaine océanique fossile: l?océan Néotéthys. Cet océan, de plusieurs milliers de kilomètres de large, séparait alors l?Europe et l?Asie au nord, de l?Afrique, l?Inde et l?Australie au sud. De cet océan, il n?en subsiste aujourd?hui qu?une infime partie, qui se confond avec notre mer Méditerranée actuelle. Or, tout comme l?océan Pacifique est bordé de mers plus étroites (Mer de Chine, du Japon, etc?), l?océan Néotéthys était bordé au nord de mers marginales. C?est dans ce cadre que s?est inscrit mon travail de thèse, puisqu?il a consisté en l?étude d?une suture océanique (mélange plus ophiolite), témoin d?une des mers qui bordait l?océan Néotéthys sur sa marge nord. L?objectif était de préciser de quelle suture il s?agissait, puis de déterminer quand et comment elle avait fonctionné (i.e son évolution géologique). Les roches qui composent cette suture affleurent aujourd?hui en Turquie nord occidentale dans la Péninsule de Biga. Au nord et au sud de la péninsule se trouvent les zones géologique du mélange de Çetmi, et à l?ouest, le Groupe d?Ezine et l?ophiolite susjacente, dite ophiolite de Denizgören. Une étude complète et détaillée de terrain (cartographie, échantillonnage), suivie de diverses analyses en laboratoire (détermination de leur âge, de leur condition de formation, etc?), ont permis d?aboutir aux principaux résultats suivants : - Mise en évidence dans le mélange de Çetmi des témoins (1) de l?océan Lycien disparu (ancienne mer marginale de la Néotéthys), et (2) de la marge continentale qui le bordait au nord. - Fin de l?activité du mélange de Çetmi il y a environ 105 Ma (Albien). - Le mélange de Çetmi est difficilement corrélable dans le temps avec les unités semblables affleurant dans la région d?étude (unicité du mélange), ce qui implique des conditions particulière de formation. - L?ophiolite de Denizgören est un morceau d?océan Lycien posé sur un reste préservé de sa marge continentale nord. - Cette dernière est représentée sur le terrain par une succession de roches caractéristiques, le Groupe d?Ezine. Celui-ci est lui-même un témoin de l?ouverture d?un océan marginal de la Néotethys antérieur au Lycien, l?océan Maliac, qui s?est ouvert il y a 245 Ma (Permien-Trias). - La mise en place de l?ophiolite de Denizgören sur le Groupe d?Ezine (125 Ma, Barrémien) est antérieure à la mise en place du mélange de Çetmi. - Il apparaît que ces deux mises en place sont contemporaines de la formation de la chaîne des Balkans, terminée avant le Cénomanien (100 Ma). - L?évolution dans le temps des objets précédents (océans, marges continentales) montre de grands mouvements latéraux est-ouest entre ces objets (translation). Ce qui implique que les roches que l?on retrouve aujourd?hui sur un transect nord-sud ne l?étaient pas nécessairement auparavant. - Enfin, il s?avère que le mélange de Çetmi, l?ophiolite de Denizgören, et le Groupe d?Ezine ont subi par la suite des déformations extensives importantes qui ont considérablement perturbé le schéma post-mise en place.
Resumo:
Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.
Resumo:
L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.