375 resultados para négation, effet négatif, imparfait, ne...plus
Resumo:
Résumé La levodopa (LD) est le traitement antiparkinsonien le plus efficace et le plus répandu. Son effet est composé d'une réponse de courte (quelques heures) et de longue durée (jours à semaines). La persistance de cette dernière dans les phases avancées de la maladie de Parkinson est controversée, et sa mesure directe n'a jamais été faite en raison des risques liés à un sevrage complet de LD. La stimulation du noyau sous-thalamique est un nouveau traitement neurochirurgical de la maladie de Parkinson, indiqué dans les formes avancées, qui permet l'arrêt complet du traitement médicamenteux chez certains patients. Nous avons étudié 30 patients qui ont bénéficié d'une telle stimulation, et les avons évalués avant l'intervention sans médicaments, et à 6 mois postopératoires, sans médicaments et sans stimulation. Chez 19 patients, la médication a pu être complètement arrêtée, alors qu'elle a dû être réintroduite chez les 11 patients restants. Au cours des 6 mois qui ont suivi l'intervention, le parkinsonisme s'est aggravé de façon significative dans le groupe sans LD, et non dans le groupe avec LD. Cette différence d'évolution s'explique par la perte de l'effet à long terme de la LD dans le groupe chez qui ce médicament a pu être arrêté. En comparant cette aggravation à la magnitude de l'effet à court terme, la réponse de longue durée correspond environ à 80 pourcent de la réponse de courte durée, et elle lui est inversement corrélée. Parmi les signes cardinaux de la maladie, la réponse de longue durée affecte surtout la bradycinésie et la rigidité, mais pas le tremblement ni la composante axiale. La comparaison du parkinsonisme avec traitement (stimulation et LD si applicable) ne montre aucune différence d'évolution entre les 2 groupes, suggérant que la stimulation compense tant la réponse de courte que de longue durée. Notre travail montre que la réponse de longue durée à la LD demeure significative chez les patients parkinsoniens après plus de 15 ans d'évolution, et suggère que la stimulation du noyau sous-thalamique compense les réponses de courte et de longue durée. Abstract Background: Long duration response to levodopa is supposed to decrease with Parkinson's disease (PD) progression, but direct observation of this response in advanced PD has never been performed. Objective: To study the long duration response to levodopa in advanced PD patients treated with subthalamic deep-brain stimulation. Design and settings: We studied 30 consecutive PD patients who underwent subthalamic deep-brain stimulation. One group had no antiparkinsonian treatment since surgery (no levodopa), while medical treatment had to be reinitiated in the other group (levodopa). Main outcome measures: motor Unified Parkinson's Disease Rating Scale (UPDRS). Results: In comparison with preoperative assessment, evaluation six months postoperatively with stimulation turned off for three hours found a worsening of the motor part of UPDRS in the no-levodopa group. This worsening being absent in the levodopa group, it most probably reflected the loss of the long duration response to levodopa in the no-levodopa group. Stimulation turned on, postoperative motor UPDRS in both groups were similar to preoperative on medication scores, suggesting that subthalamic deep-brain stimulation compensated for both the short and long duration responses to levodopa. Conclusions: Our results suggest that the long duration response to levodopa remains significant even in advanced PD, and that subthalamic deep-brain stimulation compensates for both the short and the long duration resposes to levodopa.
Resumo:
RESUME POUR UN LARGE PUBLIC Parmi les globules blancs, les lymphocytes T 004 jouent un rôle primordial dans la coordination de la réponse immunitaire contre les pathogènes et les lymphocytes T CD8 dans leur élimination. Lors d'une infection par le virus de l'immunodéficience humaine (VIH-1), non seulement les cellules T CD4 sont les principales cibles d'infections, mais aussi elles disparaissent progressivement tout au long de la maladie. Ce phénomène, appelé aussi épuisement des lymphocytes T CD4, est la principale cause provoquant le Syndrome d'Immunodéficience Acquise (SIDA). Malgré de grands efforts de recherche, nous ne sommes toujours pas en mesure de dire si ce phénomène est dû à un défaut dans la production de nouvelles cellules ou à une destruction massive de cellules en circulation. Dans cette étude, nous nous proposions, dans un premier temps, de comparer la production de nouvelles cellules T CD4 et CD8 chez des individus VIH-négatifs et positifs. Les cellules nouvellement produites portent un marqueur commun que l'on appelle TREC et qui est facilement mesurable. En considérant des paramètres cliniques, nous étions en mesure de déterminer le niveau de TRECs de cellules T CD4 et CD8 dans différentes phases de la maladie. De là, nous avons pu déterminer que le niveau de TREC est toujours plus bas dans les cellules T CD8 de patients VIH-positifs comparativement à notre groupe contrôle. Nous avons pu déterminer par une analyse ultérieure que cette différence est due à une forte prolifération de ces cellules chez les patients VIH-positifs, ce qui a pour effet de diluer ce marqueur. En revanche, la production de nouvelles cellules T CD4 chez des patients VIH-positifs est accentuée lors de la phase précoce de la maladie et largement réprimée lors de la phase tardive. Dans un second temps, nous avons effectué une analyse à grande échelle de l'expression de gènes associés à la division cellulaire sur des lymphocytes T CD4 et CD8 d'individus VIH-¬positifs et négatifs, avec comme contrôle des cellules proliférant in vitro. De cette étude, nous avons pu conclure que les cellules T CD8 de patients VIH-positifs étaient en état de prolifération, alors que les lymphocytes T CD4 présentaient des défauts majeurs conduisant à un arrêt de la division cellulaire. Nos résultats montrent que la capacité à produire de nouvelles cellules chez des patients VIH¬positifs reste active longtemps pendant la maladie, mais que l'incapacité des cellules T CD4 à proliférer peut enrayer la reconstitution immunitaire chez ces individus. ABSTRACT The hallmark of HIV-1 infection is the depletion of CD4 T cells. Despite extensive investigation, the mechanisms responsible for the loss of CD4 T cells have been elucidated only partially. In particular, it remains controversial whether CD4 T cell depletion results from a defect in T cell production or from a massive peripheral destruction. In this study, de novo T cell generation has been investigated by measuring T cell receptor rearrangement excision circles (TRECs) on large cohorts of HIV-negative (N=120) and HIV-1 infected (N=298) individuals. Analysis of TREC levels was performed in HIV-infected subjects stratified by the stage of HIV disease based on CD4 T cell counts (early: >500 CD4 T cells/µl; intermediate: <500>200; late: <200) and by age (20 to 60 years, n = 259). Our data show that TREC levels in CD8 T cells were significantly lower in HIV-infected subjects at any stage of disease compared to the control group. In contrast, TREC levels in CD4 T cells were significantly higher in HIV-infected subjects at early stages disease while no significant differences were observed at intermediate stages of the disease and were severely reduced only at late stages of disease. To investigate further the status of cell cycle in peripheral CD4 and CD8 T cells in HIV-1 infections, we determined the pattern of gene expression with the microarray technology. In particular, CD4 and CD8 T cells of HIV-1 infected and HIV-negative subjects were analysed by Cell Cycle cDNA expression array. The patterns of gene expression were compared to in vitro stimulated CD4 and CD8 T cells and this analysis showed that CD8 T cells of HIV-1 infected subjects had a pattern of gene expression very similar to that of in vitro stimulated CD8 T cells thus indicating ongoing cell cycling. In contrast, CD4 T cells of HIV-1 infected subjects displayed a complex pattern of gene expression. In fact, CD4 T cells expressed high levels of genes typically associated with cell activation, but low levels of cell cycle genes. Therefore, these results indicated that activated CD4 T cells of HIV-1 infected subjects were in cell cycle arrest. Taking together these results indicate that thymus function is preserved for long time during HIV- 1 infection and the increase observed in early stage disease may represent a compensatory mechanism to the depletion of CD4 T cells. However, we provide evidence for a cell cycle arrest of peripheral CD4 T cells that may prevent potentially the replenishment of CD4 T cells. RESUME Les mécanismes responsables de la perte des lymphocytes T CD4 lors de l'infection pas VIH n'ont été élucidés que partiellement. Nous ne savons toujours pas si l'épuisement des lymphocytes T CD4 résulte d'un défaut dans la production de cellules ou d'une destruction périphérique massive. Dans cette étude, la production de cellules T a été étudiée en mesurant les cercles d'excision générés lors du réarrangement du récepteur au cellules T (TRECs) chez des individus VIH-négatifs (N=120) et VIH-1 positifs (N=298). L'analyse des niveaux de TREC a été faite chez sujets HIV-infectés en considérant les phases de la maladie sur la base des comptes CD4 (phase précoce: > 500 cellules CD4/µl; intermédiaire: < 500>200; tardive: < 200) et par âge. Nos données démontrent que les niveaux de TRECs des cellules T CD8 étaient significativement plus bas chez les sujets VIH-1 infectés, à tous les stades de la maladie comparativement au groupe contrôle. En revanche, les niveaux de TRECs des cellules T CD4 étaient significativement plus élevés chez les sujets VIH-1 infectés durant la phase précoce de la maladie, tandis qu'aucune différence significative n'était observée durant la phase intermédiaire et étaient très réduits dans la phase tardive. Dans une deuxième partie, nous avons utilisé la technique des biopuces à d'ADN complémentaire pour analyser la régulation du cycle cellulaire chez les lymphocytes T CD4 et CD8 périphériques lors d'une infection au VIH-1. Des profils d'expression ont été déterminés et comparés à ceux de cellules T CD4 et CD8 stimulées in vitro, démontrant que les cellules T CD8 des sujets VIH-positifs avaient un profil d'expression très semblable à celui des cellules stimulées in vitro en prolifération. En revanche, les lymphocytes T CD4 des sujets VIH-1 positifs avaient un profil d'expression de gène plus complexe. En fait, leur profil montrait une sur- expression de gènes associés à une activation cellulaire, mais une sous-expression de ceux induisant une division. Ainsi, ces résultats indiquent que les lymphocytes T CD4 d'individus VIH-positifs présentent des dérégulations qui conduisent à un arrêt du cycle cellulaire. Ces résultats montrent que la fonction thymique est préservée longtemps pendant l'infection au VIH-1 et que l'augmentation de la quantité de TRECs dans la phase précoce de la maladie peut représenter un mécanisme compensatoire à l'épuisement des cellules T CD4. Cependant, nous démontrons aussi un clair dysfonctionnement du cycle cellulaire chez les cellules T CD4 d'individus infectés par VIH-1 ce qui peut enrayer la reconstitution du système immunitaire.
Resumo:
Resume : Mieux comprendre les stromatolithes et les tapis microbiens est un sujet important en biogéosciences puisque cela aide à l'étude des premières formes de vie sur Terre, a mieux cerner l'écologie des communautés microbiennes et la contribution des microorganismes a la biominéralisation, et même à poser certains fondements dans les recherches en exobiologie. D'autre part, la modélisation est un outil puissant utilisé dans les sciences naturelles pour appréhender différents phénomènes de façon théorique. Les modèles sont généralement construits sur un système d'équations différentielles et les résultats sont obtenus en résolvant ce système. Les logiciels disponibles pour implémenter les modèles incluent les logiciels mathématiques et les logiciels généraux de simulation. L'objectif principal de cette thèse est de développer des modèles et des logiciels pour aider a comprendre, via la simulation, le fonctionnement des stromatolithes et des tapis microbiens. Ces logiciels ont été développés en C++ en ne partant d'aucun pré-requis de façon a privilégier performance et flexibilité maximales. Cette démarche permet de construire des modèles bien plus spécifiques et plus appropriés aux phénomènes a modéliser. Premièrement, nous avons étudié la croissance et la morphologie des stromatolithes. Nous avons construit un modèle tridimensionnel fondé sur l'agrégation par diffusion limitée. Le modèle a été implémenté en deux applications C++: un moteur de simulation capable d'exécuter un batch de simulations et de produire des fichiers de résultats, et un outil de visualisation qui permet d'analyser les résultats en trois dimensions. Après avoir vérifié que ce modèle peut en effet reproduire la croissance et la morphologie de plusieurs types de stromatolithes, nous avons introduit un processus de sédimentation comme facteur externe. Ceci nous a mené a des résultats intéressants, et permis de soutenir l'hypothèse que la morphologie des stromatolithes pourrait être le résultat de facteurs externes autant que de facteurs internes. Ceci est important car la classification des stromatolithes est généralement fondée sur leur morphologie, imposant que la forme d'un stromatolithe est dépendante de facteurs internes uniquement (c'est-à-dire les tapis microbiens). Les résultats avancés dans ce mémoire contredisent donc ces assertions communément admises. Ensuite, nous avons décidé de mener des recherches plus en profondeur sur les aspects fonctionnels des tapis microbiens. Nous avons construit un modèle bidimensionnel de réaction-diffusion fondé sur la simulation discrète. Ce modèle a été implémenté dans une application C++ qui permet de paramétrer et exécuter des simulations. Nous avons ensuite pu comparer les résultats de simulation avec des données du monde réel et vérifier que le modèle peut en effet imiter le comportement de certains tapis microbiens. Ainsi, nous avons pu émettre et vérifier des hypothèses sur le fonctionnement de certains tapis microbiens pour nous aider à mieux en comprendre certains aspects, comme la dynamique des éléments, en particulier le soufre et l'oxygène. En conclusion, ce travail a abouti à l'écriture de logiciels dédiés à la simulation de tapis microbiens d'un point de vue tant morphologique que fonctionnel, suivant deux approches différentes, l'une holistique, l'autre plus analytique. Ces logiciels sont gratuits et diffusés sous licence GPL (General Public License). Abstract : Better understanding of stromatolites and microbial mats is an important topic in biogeosciences as it helps studying the early forms of life on Earth, provides clues re- garding the ecology of microbial ecosystems and their contribution to biomineralization, and gives basis to a new science, exobiology. On the other hand, modelling is a powerful tool used in natural sciences for the theoretical approach of various phenomena. Models are usually built on a system of differential equations and results are obtained by solving that system. Available software to implement models includes mathematical solvers and general simulation software. The main objective of this thesis is to develop models and software able to help to understand the functioning of stromatolites and microbial mats. Software was developed in C++ from scratch for maximum performance and flexibility. This allows to build models much more specific to a phenomenon rather than general software. First, we studied stromatolite growth and morphology. We built a three-dimensional model based on diffusion-limited aggregation. The model was implemented in two C++ applications: a simulator engine, which can run a batch of simulations and produce result files, and a Visualization tool, which allows results to be analysed in three dimensions. After verifying that our model can indeed reproduce the growth and morphology of several types of stromatolites, we introduced a sedimentation process as an external factor. This lead to interesting results, and allowed to emit the hypothesis that stromatolite morphology may be the result of external factors as much as internal factors. This is important as stromatolite classification is usually based on their morphology, imposing that a stromatolite shape is dependant on internal factors only (i.e. the microbial mat). This statement is contradicted by our findings, Second, we decided to investigate deeper the functioning of microbial mats, We built a two-dimensional reaction-diffusion model based on discrete simulation, The model was implemented in a C++ application that allows setting and running simulations. We could then compare simulation results with real world data and verify that our model can indeed mimic the behaviour of some microbial mats. Thus, we have proposed and verified hypotheses regarding microbial mats functioning in order to help to better understand them, e.g. the cycle of some elements such as oxygen or sulfur. ln conclusion, this PhD provides a simulation software, dealing with two different approaches. This software is free and available under a GPL licence.
Resumo:
RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.
Resumo:
Pourquoi retourner à Lefkandi ? Ce site exceptionnel a déjà donné naissance aux suppositions les plus diverses. Or ce sont elles, justement, qui font l'objet de la présente étude. Leur pertinence y est remise en cause, sur la base de critères épistémologiques. II est en effet établi, dans les pages qui suivent, qu'une supposition, pour être pertinente, doit être heuristique. Lefkandi n'est donc pas le seul site concerné. La question de la pertinence des suppositions touche l'archéologie tout entière. Lefkandi fait ici figure d'exemple uniquement. Il s'agit en effet d'un site exemplaire, à plus d'un titre. Tout d'abord, parce qu'il permet d'accéder à des suppositions portant sur une grande variété de thèmes propres à l'archéologie, comme la typologie ou la datation de vases et même de tombes par exemple, ou encore l'architecture, l'habitat, mais aussi les images. Ensuite, parce que son occupation du début de l'Âge du Fer, celle qui est retenue ici, correspond en Grèce à une période pour laquelle il y a peu ou pas de sources écrites. L'archéologie prime donc presque exclusivement dans l'étude du site. Enfin, parce que les découvertes atypiques qui y ont été faites, ainsi que la qualité des publications qui leur sont consacrées, font que Lefkandi a donné lieu, et donne encore lieu, depuis une quarantaine d'années, a de très nombreuses suppositions. Leur évaluation est d'autant plus nécessaire que depuis peu les fouilles ont repris sur le site, qui n'appartient donc pas qu'au passé ou au présent de la recherche, mais aussi à son avenir. Ce travail commence par une présentation succincte des fouilles de l'Âge du Fer de Lefkandi, jusqu'en 1994 (chapitre II). Les nouvelles fouilles, qui n'ont fait l'objet à ce jour que de rapports préliminaires, n'y sont pas abordées, pas plus qu'elles ne le sont dans les chapitres suivants. De même, l'histoire de la recherche, les polémiques passées ou en cours n'y figurent-elles pas : il ne s'agit ici que de fournir au lecteur un moyen de comprendre les suppositions qui suivent, et de pouvoir les resituer autant que faire se peut dans leur contexte archéologique d'origine. Il se poursuit, au chapitre III, avec la partie théorique : le rôle épistémologique des suppositions y est expliqué, tout comme les répercussions de ce dernier sur l'archéologie. Les conditions nécessaires à une supposition heuristique y sont détaillées. Le chapitre IV réunit et évalue les suppositions concernant les fouilles de l'Âge du Fer de Lefkandi. Elles ont été glanées tant dans les publications des résultats que dans les articles spécialisés. Elles sont dépouillées des arguments qui les justifient aux yeux de leurs auteurs (quand ils ne sont pas nécessaires à leur compréhension), puisque les arguments en question, archéologiques, n'entrent pas en compte dans l'évaluation, épistémologique, de leur pertinence. Elles sont classées par thèmes, et forment ainsi un catalogue qui n'a la prétention ni d'être exhaustif (ne serait-ce que parce qu'il ne comporte que des suppositions faites jusqu'en 2006), ni même d'être représentatif de leur nombre (certaines d'entre elles, trop répétitives, ont été réunies en une seule) ou encore de leur succès dans le cadre de l'histoire de la recherche (chacune d'entre elles n'est généralement citée qu'une fois, même si elle a été reprise par plusieurs auteurs). Il se veut en revanche révélateur, dans quelques cas du moins, et de manière plus ou moins prononcée, d'un lien entre thème et pertinence, dû aux conditions spécifiques de cette dernière. Ce même lien, ces mêmes conditions, permettent en conclusion (chapitre V) d'esquisser l'avenir de la recherche pour Lefkandi, mais aussi, de manière plus générale, d'insister sur l'impératif que constitue l'exigence de pertinence pour les suppositions en archéologie.
Resumo:
Les approches multimodales dans l'imagerie cérébrale non invasive sont de plus en plus considérées comme un outil indispensable pour la compréhension des différents aspects de la structure et de la fonction cérébrale. Grâce aux progrès des techniques d'acquisition des images de Resonance Magnetique et aux nouveaux outils pour le traitement des données, il est désormais possible de mesurer plusieurs paramètres sensibles aux différentes caractéristiques des tissues cérébraux. Ces progrès permettent, par exemple, d'étudier les substrats anatomiques qui sont à la base des processus cognitifs ou de discerner au niveau purement structurel les phénomènes dégénératifs et développementaux. Cette thèse met en évidence l'importance de l'utilisation d'une approche multimodale pour étudier les différents aspects de la dynamique cérébrale grâce à l'application de cette approche à deux études cliniques: l'évaluation structurelle et fonctionnelle des effets aigus du cannabis fumé chez des consommateurs réguliers et occasionnels, et l'évaluation de l'intégrité de la substance grise et blanche chez des jeunes porteurs de la prémutations du gène FMR1 à risque de développer le FXTAS (Fragile-X Tremor Ataxia Syndrome). Nous avons montré que chez les fumeurs occasionnels de cannabis, même à faible concentration du principal composant psychoactif (THC) dans le sang, la performance lors d'une tâche visuo-motrice est fortement diminuée, et qu'il y a des changements dans l'activité des trois réseaux cérébraux impliqués dans les processus cognitifs: le réseau de saillance, le réseau du contrôle exécutif, et le réseau actif par défaut (Default Mode). Les sujets ne sont pas en mesure de saisir les saillances dans l'environnement et de focaliser leur attention sur la tâche. L'augmentation de la réponse hémodynamique dans le cortex cingulaire antérieur suggère une augmentation de l'activité introspective. Une investigation des ef¬fets au niveau cérébral d'une exposition prolongée au cannabis, montre des changements persistants de la substance grise dans les régions associées à la mémoire et au traitement des émotions. Le niveau d'atrophie dans ces structures corrèle avec la consommation de cannabis au cours des trois mois précédant l'étude. Dans la deuxième étude, nous démontrons des altérations structurelles des décennies avant l'apparition du syndrome FXTAS chez des sujets jeunes, asymptomatiques, et porteurs de la prémutation du gène FMR1. Les modifications trouvées peuvent être liées à deux mécanismes différents. Les altérations dans le réseau moteur du cervelet et dans la fimbria de l'hippocampe, suggèrent un effet développemental de la prémutation. Elles incluent aussi une atrophie de la substance grise du lobule VI du cervelet et l'altération des propriétés tissulaires de la substance blanche des projections afférentes correspondantes aux pédoncules cérébelleux moyens. Les lésions diffuses de la substance blanche cérébrale peu¬vent être un marquer précoce du développement de la maladie, car elles sont liées à un phénomène dégénératif qui précède l'apparition des symptômes du FXTAS. - Multimodal brain imaging is becoming a leading tool for understanding different aspects of brain structure and function. Thanks to the advances in Magnetic Resonance imaging (MRI) acquisition schemes and data processing techniques, it is now possible to measure different parameters sensitive to different tissue characteristics. This allows for example to investigate anatomical substrates underlying cognitive processing, or to disentangle, at a pure structural level degeneration and developmental processes. This thesis highlights the importance of using a multimodal approach for investigating different aspects of brain dynamics by applying this approach to two clinical studies: functional and structural assessment of the acute effects of cannabis smoking in regular and occasional users, and grey and white matter assessment in young FMR1 premutation carriers at risk of developing FXTAS. We demonstrate that in occasional smokers cannabis smoking, even at low concentration of the main psychoactive component (THC) in the blood, strongly decrease subjects' performance on a visuo-motor tracking task, and globally alters the activity of the three brain networks involved in cognitive processing: the Salience, the Control Executive, and the Default Mode networks. Subjects are unable to capture saliences in the environment and to orient attention to the task; the increase in Hemodynamic Response in the Anterior Cingulate Cortex suggests an increase in self-oriented mental activity. A further investigation on long term exposure to cannabis, shows a persistent grey matter modification in brain regions associated with memory and affective processing. The degree of atrophy in these structures also correlates with the estimation of drug use in the three months prior the participation to the study. In the second study we demonstrate structural changes in young asymptomatic premutation carriers decades before the onset of FXTAS that might be related to two different mechanisms. Alteration of the cerebellar motor network and of the hippocampal fimbria/ fornix, may reflect a potential neurodevelopmental effect of the premutation. These include grey matter atrophy in lobule VI and modification of white matter tissue property in the corresponding afferent projections through the Middle Cerebellar Peduncles. Diffuse hemispheric white matter lesions that seem to appear closer to the onset of FXTAS and be related to a neurodegenerative phenomenon may mark the imminent onset of FXTAS.
Resumo:
L'étude classique des attributions de responsabilité instiguée par Heider en psychologie sociale s'est principalement bornée à aborder ce processus psychosocial dans une perspective individualiste qui se cantonne aux niveaux intra-individuel et interpersonnel (selon la distinction opérée par Doise). Les réflexions et les travaux empiriques présentés dans cette thèse ont deux objectifs. Dans un premier temps, il s?agit d'élargir cette perspective aux autres niveaux sociologique et idéologique (en faisant notamment recours à l'approche des attributions sociales et aux propositions de Fauconnet sur les règles de responsabilité). Deuxièmement, il s?agit d'éprouver la pertinence d'une telle approche dans un contexte particulier : celui du travail en groupe dont la nature des rapports sociaux qui y étaient présentés ont été manipulés à l'aide de scénarii chez des étudiant-e-s de l?Université de Lausanne. L?objectif principal de cette thèse est donc de tester un modèle d?ancrage des attributions de responsabilité qui permette de souligner les dynamiques représentationnelles sous-jacentes en termes de légitimation ou de remise en cause de l?organisation des groupes. Dans l?ensemble les résultats indiquent que si la nature des rapports sociaux (re)présentés dans un groupe sont de puissants déterminants de la manière de légitimer ou de remettre en cause l?organisation des groupes, le niveau individuel d'adhésion à des croyances idéologiques dominantes, comme la justification du système économique, représente un modérateur des prises de position des répondant-e-s interrogé-e-s. De plus, il semble que ces processus évoluent dans le temps, faisant ainsi apparaître l'existence de phénomènes de socialisation relativement plus complexes que ne le laissent entendre les recherches actuellement effectuées dans ce domaine. En effet, si des connaissances idéologiques sur le monde sont acquises dans les filières universitaires et n?interviennent pas toujours dans les processus de formation des représentations du travail en groupe, des connaissances spécifiques aux disciplines et à la politique de sélection universitaire semblent intervenir dans le processus de légitimation des rapports sociaux dans les groupes au niveau des attributions. En tentant une articulation entre les concepts d?ancrage des représentations sociales, d?attribution et de socialisation, cette thèse permet ainsi de souligner la pertinence qu?il y a à insérer une problématique en termes de croyances idéologiques dans l?étude des groupes sociaux.<br/><br/>Heider?s approach of responsibility attributions almost exclusively emphasized on an individualistic point of view ; i.e. focusing at an intraindividual and interpersonnal level of analysis according to Doise?s distinction. The reflexions and empirical studies presented here firstly aim at broaden this perspective by taking socio-structural as well as societal levels of analysis into account. Secondly, it is to test this approach in the particular domain of organized groups. Manipulation of the structure of social relations in work groups on screenplays were undertaken (in a population of students from the Lausanne University). Hence, the main goal of these studies is to test the impact of the social ancoring of social representations in the responsibility processes in terms of legitimation or opposition to the group organization. All in all, the results show that social structures are powerfull predictors of the formation of social representations of a work situation and so forth of the attribution process. Nevertheless hegemonic ideological beliefs, such as Economical System Justification, do play a substantial moderating role in this process. It also proves to be evolving through time. The present findings show that a complexe process of socialization is occuring during the student?s university life. Indeed, the results let us believe that ideological beliefs may not interact anytime in the group?s perception and in the construction of the representation of the situation. In the same time, it seems that more discipline specific oriented knowledge and the impact of selection policy at the Lausanne University also predict the groupe legimation process and interfer with the ideological beliefs. Trying to articulate concepts of fields of research like social representations, attribution and socialization, the present thesis allows to underline the heuristic potential of reabilitating ideological beliefs at a dispositional level in the study of group process.
Resumo:
Résumé pour un large public: La vaccination a eu un impact énorme sur la santé mondiale. Mais, quel est le principe d'un vaccin? Il est basé sur la 'mémoire immunologique', qui est une particularité exclusive des systèmes immunitaires des organismes évolués. Suite à une infection par un pathogène, des cellules spécialisées de notre système immunitaire (les lymphocytes) le reconnaissent et initient une réaction immunitaire qui a pour but son élimination. Pendant cette réaction se développent aussi des cellules, appelées cellules lymphocytaires mémoire, qui persistent pour longue durée et qui ont la capacité de stimuler une réaction immunitaire très efficace immédiatement après une seconde exposition à ce même pathogène. Ce sont ces cellules mémoires (lymphocytes B et T) qui sont à la base de la 'mémoire immunologique' et qui sont stimulées lors de la vaccination. Chez l'homme, deux populations distinctes des lymphocytes T mémoires ont été identifiées: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et essentiels dans l'immunité protectrice. Typiquement, les cellules effectrices mémoires sont capables de tuer immédiatement le pathogène tandis que les cellules centrales mémoires sont responsables d'initier une réponse immunitaire complète. Pourtant, les mécanismes biochimiques qui contrôlent les fonctions de ces cellules ont été jusqu'à présent peu étudiés à cause de la faible fréquence de ces cellules et de la quantité limitée de tissus humains disponibles pour les analyses. La compréhension de ces mécanismes est cruciale pour la réalisation de vaccins efficaces et pour le développement de nouveaux médicaments capables de moduler la réponse immunitaire lymphocytaire. Dans cette thèse, nous avons d'abord développé et amélioré une technologie appelée 'protéine array en phase inverse' qui possède un niveau de sensibilité beaucoup plus élevé par rapport aux technologies classiquement utilisées dans l'étude des protéines. Grâce à cette technique, nous avons pu comparer la composition protéique du système de transmission des signaux d'activation des cellules CM et EM humaines. L'analyse de 8 à 13 sujets sains a montré que ces populations des cellules mémoires possèdent un système de signalisation protéique différent. En effet, les cellules EM possèdent, par rapport aux cellules CM, des niveaux réduits d'une protéine régulatrice (appelée c-Cbl) que nous avons démontré comme étant responsable des fonctions spécifiques de ces cellules. En effet, en augmentant artificiellement l'expression de cette protéine régulatrice dans les cellules EM jusqu'au niveau de celui des cellules CM, nous avons induit dans les cellules EM des capacités fonctionnelles caractéristiques des cellules CM. En conclusion, notre étude a identifié, pour la première fois chez l'homme, un mécanisme biochimique qui contrôle les fonctions des populations des cellules mémoires. Résumé en Français: Les cellules mémoires persistent inertes dans l'organisme et produisent des réactions immunitaires rapides et robustes contre les pathogènes précédemment rencontrés. Deux populations distinctes des cellules mémoires ont été identifiées chez l'homme: les cellules centrales (CM) et effectrices (EM) mémoires. Ces populations sont fonctionnellement hétérogènes et exercent des rôles distincts et critiques dans l'immunité protectrice. Les mécanismes biochimiques qui contrôlent leurs fonctions ont été jusqu'à présent peu étudiés, bien que leur compréhension soit cruciale pour le développement des vaccins et des nouveaux traitements/médicaments. Les limites majeures à ces études sont la faible fréquence de ces populations et la quantité limitée de tissus humains disponibles. Dans cette thèse nous avons d'abord développé et amélioré la technologie de 'protéine array en phase inverse' afin d'analyser les molécules de signalisation des cellules mémoires CD4 et CD8 humaines isolées ex vivo. L'excellente sensibilité, la reproductibilité et la linéarité de la détection, ont permis de quantifier des variations d'expression protéiques supérieures à 20% dans un lysat équivalent à 20 cellules. Ensuite, grâce à l'analyse de 8 à 13 sujets sains, nous avons prouvé que les cellules mémoires CD8 ont une composition homogène de leur système de signalisation tandis que les cellules CD4 EM expriment significativement de plus grandes quantités de SLP-76 et des niveaux réduits de c-Cbl, Syk, Fyn et LAT par rapport aux cellules CM. En outre, l'expression réduite du régulateur négatif c-Cbl est corrélée avec l'expression des SLP-76, PI3K et LAT uniquement dans les cellules EM. L'évaluation des propriétés fonctionnelles des cellules mémoires a permis de démontrer que l'expression réduite du c-Cbl dans les cellules EM est associé à une diminution de leur seuil d'activation. En effet, grâce a la technique de transduction cytosolique, nous avons augmenté la quantité de c-Cbl des cellules EM à un niveau comparable à celui des cellules CM et constaté une réduction de la capacité des cellules EM à proliférer et sécréter des cytokines. Ce mécanisme de régulation dépend principalement de l'activité d'ubiquitine ligase de c-Cbl comme démontré par l'impact réduit du mutant enzymatiquement déficient de c-Cbl sur les fonctions de cellules EM. En conclusion, cette thèse identifie c-Cbl comme un régulateur critique des réponses fonctionnelles des populations de cellules T mémoires et fournit, pour la première fois chez l'homme, un mécanisme contrôlant l'hétérogénéité fonctionnelle des ces cellules. De plus, elle valide l'utilisation combinée des 'RPP arrays' et de la transduction cytosolique comme outil puissant d'analyse quantitative et fonctionnel des protéines de signalisation. Summary : Memory cells persist in a quiescent state in the body and mediate rapid and vigorous immune responses toward pathogens previously encountered. Two subsets of memory cells, namely central (CM) and effector (EM) memory cells, have been identified in humans. These subsets display high functional heterogeneity and assert critical and distinct roles in the control of protective immunity. The biochemical mechanisms controlling their functional properties remain so far poorly investigated, although their clarification is crucial for design of effective T-cell vaccine and drug development. Major limitations to these studies lie in the low frequency of memory T cell subsets and the limited amount of human specimen available. In this thesis we first implemented the innovative reverse phase protein array approach to profile 15 signalling components in human CD8 and CD4 memory T cells isolated ex vivo. The high degree of sensitivity, reproducibility and linearity achieved, allowed an excellent quantification of variations in protein expression higher than 20% in as few as 20-cell equivalent per spot. Based on the analysis of 8 to 13 healthy subjects, we showed that CD8 memory cells have a homogeneous composition of their signaling machinery while CD4 EM cells express statistically significant increased amounts of SLP-76 and reduced levels of c- Cbl, Syk, Fyn and LAT as compared to CM cells. Moreover, in EM but not CM cells, reduced expression of negative regulator c-Cbl correlated with the expression of SLP-76, PI3K and LAT. Subsequently, we demonstrated that the higher functional properties and the lower functional threshold of EM cells is associated with reduced expression of c-Cbl. Indeed, by increasing c-Cbl content of EM cells to the same level of CM cells using cytosolic transduction, we impaired their proliferation and cytokine production. This regulatory mechanism was primarily dependent on c-Cbl E3 ubiquitin ligase activity as evidenced by the weaker impact of enzymatically deficient c-Cbl C381A mutant on EM cell functions. Together, these results identify c-Cbl as a critical regulator of the functional responses of memory T cell subsets and provides, for the first time in humans, a mechanism controlling the functional heterogeneity of memory CD4 cells. Moreover it validates the combined use of RPP arrays and cytosolic transduction approaches as a powerful tool to quantitatively analyze signalling proteins and functionally assess their roles.
Resumo:
Abstract Activation of the Wnt pathway through mutation of the adenomatous polyposis coli and 13-catenin genes is a hallmark of colon cancer. These mutations lead to constitutive activation of transcription from promoters containing binding sites for Tcf/LEF transcription factors. Tumour-selective replicating oncolytic viruses are promising agents for cancer therapy. They can in principle spread throughout a tumour mass until all the cancerous cells are killed, and clinical trials have shown that they are safe except at very high doses. Adenoviruses are interesting candidates for virotherapy because their biology is well understood and their small genome can be rapidly mutated. Adenoviruses with Tcf binding sites in the E2 early promoter replicate selectively in cells with an active Wnt pathway. Although these viruses can replicate in a broad panel of colon cancer cell lines, some colorectal cancer cells are only semi-permissive for Tcf-virus replication. The aim of my thesis was to increase the safety and the efficacy of Tcf-viruses for colon cancer virotherapy. I replaced the endogenous ElA viral promoter by four Tcf binding sites and showed that transcription from the mutant promoter was specifically activated by the Wnt pathway. A virus with Tcf binding sites in the ElA and E4 promoters was more selective for the Wnt pathway than the former Tcf-E2 viruses. Moreover, insertion of Tcf binding sites into all early promoters further increased viral selectivity, but reduced viral activity. I showed that Tcf-dependent transcription was inhibited by the interaction between ElA and p300, but deletion of the p300-binding site of ElA generally led to viral attenuation. In the semi-permissive cell lines, replication of Tcf-viruses remained lower than that of the wild-type virus. The E2 promoter was the most sensitive to the cell type, but I was unable to improve its activity by targeted mutagenesis. To increase the toxicity of the Tcf-E1A/E4 virus, I decided to express a suicide gene, yeast cytosine deaminase (yCD), late during infection. This enzyme converts the prodrug 5-FC to the cytotoxic agent 5-FU. yCD was expressed in a DNA replication-dependent manner and increased viral toxicity in presence of 5-FC. Tcf-ElA and yCD adenoviruses are potentially useful vectors for the treatment of liver metastases from colorectal tumours. Résumé Dans la quasi-totalité des cancers du côlon, la voie Wnt est activée par des mutations dans les gènes codant pour APC ou pour la (3-caténine. Ces mutations activent de façon constitutive la transcription de promoteurs contenant des sites de liaison pour les facteurs de transcription Tcf/LEF. Les virus réplicatifs spécifiques aux tumeurs sont des agents prometteurs pour la thérapie cancéreuse. En principe, ces vecteurs peuvent se propager dans une masse tumorale jusqu'à destruction de toutes les cellules cancéreuses, et des études cliniques ont démontré que de tels vecteurs n'étaient pas toxiques, sauf à de très hautes doses. Les adénovirus sont des candidats intéressants pour la thérapie virale car leur biologie est bien définie et leur petit génome peut être rapidement modifié. Des adénovirus comportant des sites de liaison à Tcf dans leur promoteur précoce E2 se répliquent sélectivement dans les cellules qui possèdent une voie Wnt active. Ces virus sont capables de se répliquer dans un grand nombre de cellules cancéreuses du côlon, bien que certaines de ces cellules ne soient que semi-permissives pour la réplication des virus Tcf. Le but de ma thèse était d'augmenter la sécurité et l'efficacité des virus Tcf. Le promoteur viral endogène ElA a été remplacé par quatre sites de liaison à Tcf, ce qui a rendu son activation dépendante de la voie Wnt. Un virus comportant des sites de liaison pour Tcf dans les promoteurs ElA et E4 était plus sélectif pour la voie Wnt que les précédents virus Tcf-E2, et un virus comportant des sites Tcf dans tous les promoteurs précoces était encore plus sélectif, mais moins actif. J'ai montré que l'interaction entre ElA et p300 inhibait la transcription dépendante de Tcf, mais la délétion du domaine concerné dans ElA a eu pour effet d'atténuer les virus. Dans les cellules semi-permissives, la réplication des virus Tcf était toujours plus basse que celle du virus sauvage. J'ai identifié le promoteur E2 comme étant le plus sensible au type cellulaire, mais n'ai pas pu augmenter son activité par mutagenèse. Pour augmenter la toxicité du virus Tcf-E1A/E4, j'ai décidé d'exprimer un gène suicide, la cytosine déaminase (yCD), pendant la phase tardive de l'infection. Cette enzyme transforme la procirogue 5-FC en l'agent cytotoxique 5-FU. yCD était exprimée après réplication de l'ADN viral et augmentait la toxicité virale en présence de 5-FC. Les virus Tcf-ElA et yCD sont des vecteurs potentiellement utiles pour le traitement des métastases hépatiques de cancers colorectaux.
Resumo:
Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.
Resumo:
L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Les trajectoires migratoires: entre flux, filières et mythes : le cas des italiens du canton de Vaud
Resumo:
La complexité des parcours migratoires italiens, malgré la vaste littérature existante, n?a été souvent étudiée en profondeur qu'au niveau de la Confédération Helvétique ou bien dans le cadre d'un thème spécifique lié, plus en général, à la présence italienne en Suisse. En ce qui concerne le canton de Vaud, il n'existe pas, à notre connaissance, une étude scientifique spécifique sur la communauté italienne du canton. Il existe, bien sûr, des études concernant des thèmes spécifiques - nous y avons d?ailleurs contribué -, mais en réalité cette communauté reste méconnue dans son ensemble. Si des études scientifiques ou de vulgarisation ont mis en valeur certaines spécificités surtout historiques de cette communauté étrangère du canton de Vaud et de Suisse Romande, la parole n?a pas souvent été offerte à ces mêmes Italiens. C?est en partie dans le dessin de leur donner la parole, pour se raconter et pour raconter leur histoire de l?immigration italienne de l?aprèsguerre dans le canton de Vaud que ce travail a été fait. Il ne s?agit pas de l?objectif originel de cette recherche, surtout centré sur l?individuation des caractéristiques géographiques de la communauté italienne du canton de Vaud et moins axé sur les pratiques et la parole des migrants en question. Ce n?est qu?au fil des rencontres, des discussions, de résultats scientifiques qui sentaient le déjà vu, que le projet de thèse initial a évolué en allant vers les migrants, parfois « au détriment de la science pure » mais toujours en cherchant à rendre à ces Italiens leur statut d?individus à part entière. Il faut dire en outre que les études scientifiques ou les articles de vulgarisation existants n?ont pas souvent pris en considération la dimension spatiale. Cela ne concerne pas que les écrits concernant les Italiens de Suisse romande ou de la Confédération helvétique mais, plus généralement, l'ensemble des pays où la présence d?une population d'origine italienne constitue une part considérable de la présence étrangère ou d'origine étrangère. Ce qui laisse des creux assez importants dans les connaissances - par les acteurs bien sûr - non seulement des parcours migratoires mais aussi dans l?analyse des diverses spatialités qui, sommées, superposées, entrecroisées, juxtaposées, constituent l?une des composantes majeures de tout mouvement migratoire. Le parcours de recherche et quelques résultats Partis de schémas et de connaissances scientifiques « certaines » sur les phénomènes migratoires, nous avons dû nous obliger à revoir nos certitudes et à nous former tout en poursuivant notre chemin de recherche. Les connaissances et les compétences acquises « en route » nous ont bien confirmé que, pour chercher à pénétrer dans l?écheveau des parcours migratoires, il nous fallait abandonner l?idée de pouvoir les mesurer. Si quelques velléités quantitatives nous animaient encore, les acteurs de terrain nous ont bien aidé à les dépasser, à ne pas nous conformer au dictat de vouloir à tout prix mesurer un phénomène aussi opaque que les trajectoires migratoires. Par les reconstructions et les constructions en acte de ces mêmes trajectoires, nos témoins nous ont non seulement informés mais aussi formés à la découverte et à la reconstruction « bribe par bribe » - selon l?expression de Xavier Piolle » (Piolle, 1990, p. 149) - ce cette matière dense que sont les parcours migratoires des Italiens du canton de Vaud et cherchant à définir une grille de lecture de cet objet d?étude opaque et sinueux. Au fur et à mesure que cette grille se construisait, il nous paraissait de plus en plus clair que les Italiens mobilisés dans la recherche étaient en train de nous informer sur l?existence d?un mode de vie centré sur plusieurs références spatiales, sociales et culturelles qui ne pouvait en aucune manière s?apparenter aux modèles de sédentarité et de mobilité « reconnus » par les académiciens et les gens communs. Ce mode de vie centré sur des ancrages, réels ou bien cristallisés dans la mémoire et régulièrement « re-vivifiés », est axé sur une mobilité et un mouvement qui prennent leur source dans des racines « ancestrales » ou actuelles. Dans ce nouveau mode de vie, que devient l?espace ? Il se fait un réseau fondé sur des références spatiales concrètes et quotidiennes et sur des références symboliques qui, malgré les obligations du quotidien et de la vie réelle, ne s?effacent jamais. L?ensemble de ces références sont constitutives de l?espace du migrant et de son mode de vie entre sédentarité et mobilité - anciennes et nouvelles -. Ce mode de vie est fait de ruptures, ces mêmes ruptures qui sont parfois incompréhensibles aux non-migrants, à tous ceux qui ne comprennent pas la « non conformation » du migrant à un modèle sédentaire. Ce modèle, apparemment révolutionnaire, n?est qu?un tout premier exemple, le plus ancien peut-être, des nouveaux modes de vie qui commencent à s?affirmer et à s?ancrer dans nos sociétés actuelles. Le migrant a été et continue d?être une sorte d? « éclaireur » pour ces mêmes sociétés qui, pourtant, n?arrêtent pas de le considérer « Autre » et « hors norme » par rapport au modèle de sédentarité « monolithique » dominant. Le migrant, l? « homme porteur d?un ailleurs » plus ou moins lointain, nous enseigne que de nos jours être pluriel risque bien d?être un atout, que la (re)construction de nos identités nous ouvre au principe de la multiplicité et de l?altérité. Il est bien évident que pour arriver à entrer dans cette matière fluide, multiple et complexe, nous avons dû abandonner les chemins scientifiques habituels et que nous avons dû nous concentrer sur l?émergence de « bribes » plus que sur les données concrètes et mesurables concernant les Italiens du canton de Vaud. D?objet principal de la recherche qu?elle était, la communauté italienne du canton de Vaud s?est transformée en « objet instrumental », c?est-àdire en outil nécessaire à l?émergence et à l?étude des trajectoires migratoires des Italiens vivant dans cette région. Ce choix fait au cours de la recherche risque de ne pas satisfaire tous ceux qui voudraient « en savoir plus » sur la communauté italienne et qui rechercheraient dans ce travail des informations « factuelles » et mesurables. Nous avons été tenté par ce type d?approche, nous avons même cherché à la mettre en pratique : les résultats peu parlants pour nos interrogations sur les trajectoires migratoires nous en ont dissuadé. Cette recherche risque par ailleurs de décevoir également tous ceux qui y rechercheraient des mesures d?application concrètes. L?objectif de la recherche n?était pourtant pas la définition de modes opérationnels pour agir dans le cadre de la communauté italienne mais plutôt la découverte, par le terrain et en partenariat avec les Italiens mobilisés par les enquêtes, des tenants et aboutissants - les plus importants du moins - des trajectoires migratoires. Nous considérons que la compréhension des mécanismes et des spécificités des parcours migratoires, y compris leurs contradictions et parfois leurs anachronismes, est centrale, préalable à toute action éventuellement normative ou correctrice. Il ne nous appartient donc pas de faire des recommandations, de suggérer des décisions : seule l?action informative nous revient et nous appartient. Tel était bien le but de cette recherche. Les nouvelles pistes de recherche Notre action informative consiste dans la diffusion des résultats obtenus ainsi que dans la mise en évidence et la suggestion de nouvelles pistes de recherche et d?enquête, soit réflexives soit applicatives. Il nous paraît évident que se passer d?une réflexion « genrée » des migrations pourrait limiter la découverte des ressources existantes chez les migrants ainsi que rendre partielle la compréhension des problèmes « migratoires » anciens et nouveaux. L?approche genrée, bien que peu pratiquée jusqu?à présent, est une ressource « ancienne » mais longtemps considérée accessoire par les chercheurs tout comme par les édiles. La compréhension des spécificités et des différences dans les besoins et les aspirations des migrants et des migrantes peut conduire à devoir repenser toute action normative et correctrice, toute décision et tout choix qui, sans la prise en compte de cette composante, seraient nécessairement « artificiels » et ne correspondraient pas à la réalité migratoire. Si au début de cette recherche le chemin « genré » nous paraissait difficile à parcourir, dans le cadre des enquêtes sur le terrain en particulier - cette difficulté nous a dissuadé d?en faire l?objet « central » de notre recherche -, aujourd?hui l?acceptation du changement du rôle de la femme migrante - ainsi que les changements de cette même femme, moins passive et bien plus à même d?exprimer ses besoins et ses envies - nous rassure sur les opportunités de recherche futures ainsi que sur la portée des décisions futures concernant les migrants. La piste des jeunes migrants nous paraît aussi centrale et fondamentale dans les réflexions et les applications futures. Les modèles, les modes et les choix d?intervention sur le terrain font encore trop souvent référence à une réalité migratoire qui n?est plus ou bien qui prend encore en considération des références qui ne « font plus sens » pour les jeunes migrants. Les approches intergénérationnelles commencent timidement à se diffuser, tout en gardant une « aura » expérimentale qui risque de retarder la diffusion de ce mode de réflexion et d?action de la part des édiles comme des chercheurs. Il serait pourtant indispensable de ne pas trop prolonger cette expérimentation car la réalité de nos sociétés nous montre bien que la valorisation de quelques-unes des composantes « migratoires » augmente les risques d?affaiblissement des réseaux sociaux existants - les réseaux migratoires dans ce cas spécifique -. La réalité de nos sociétés, et de la société vaudoise dans ce cas particulier, nous donne aussi clairement l?indication d?une nouvelle réalité migratoire dans la communauté italienne : celle des « high skilled ». Composante marginale pendant des décennies, elle a acquis au cours des années ?90 du poids et de la visibilité. Sommes-nous face à une nouvelle « vague » migratoire, italienne dans ce cas spécifique, moins « redoutable » que les précédentes car constituée d?individus à même de s?intégrer plus facilement dans la société locale ? Ou bien sommes-nous face à la « concrétisation » et visibilisation d?un nouveau mode de vie, centré sur la mobilité, sur la « transition mobilitaire » dont nous parle Rémy Knafou ? Il est évident que la matière est encore assez « brute », qu?il nous manque des références spécifiques pour mieux entrer en matière et argumenter. Certains Pays occidentaux ne sont-ils pas en train de se demander comment rechercher et recruter des professionnels « high skilled » ? Cette nouvelle vague migratoire est peut-être composée par des « éclaireurs » qui expérimentent un nouveau mode de vie et de valorisation de leurs compétences professionnelles « au-delà des frontières nationales » et qui s? « alimentent » de mobilités successives. Cet ensemble de pistes, mais il y en a d?autres que nous pourrions cerner en allant plus en profondeur au sein des plus importantes, s?est révélé à nous par la manière de conduire notre recherche. Celle-ci en effet nous a demandé bien des parcours « à rebours », bien des remises en question, bien des périodes de prise de distance en regard d?une matière d?analyse qui, au fil du temps, s?est faite plus dense et plus problématique. Il nous paraît fondamental de rappeler encore une fois que la recherche n?a abouti que grâce au travail conduit sur le terrain par le chercheur, en observateur et en enquêteur d?abord, en acteur et partenaire de terrain par la suite. Cette méthode de recherche, parfois encore plus spiraliforme que les parcours migratoires, nous a permis de nous construire un « savoir être chercheur » et, par conséquent, un « savoir faire la recherche » dans le champ migratoire que nous n?envisagions pas au début de ce travail. L?acquisition de ces savoirs et les choix méthodologiques assumés nous paraissent encore plus indispensables à la fin de cette étude. Il ne s?agit pas de choix « partisans ». Nous avons bien expérimenté et cherché à utiliser les diverses approches possibles. Il s?agit plutôt de choix devenus nécessaires afin de mener la recherche à terme. Après maintes tentatives méthodologiques, nous avons bien compris qu?il existe des objets d?étude qui nécessitent l?adaptation du chercheur à leurs spécificités. Nous sommes convaincu que, voulant dépasser la phase purement « comptable » ou exploratoire d?un objet complexe et problématique comme les trajectoires migratoires, les méthodes d?enquête sur le terrain et avec les acteurs de terrain, restent les seules qui nous aident à pénétrer dans l?objet de recherche lui-même, qui nous soutiennent dans l?exploration sur la durée, qui nous permettent, par l?échange de savoirs différents, de participer à la recherche du « dedans », qui nous incitent à la confrontation de nos savoirs « savants » avec d?autres savoirs encore plus « savants » mais qui ne sont pas au bénéfice de la même légitimité.
Resumo:
Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).