560 resultados para Piliers de bien-être


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La région du Zanskar, étudiée dans le cadre de ce travail, se situe au passage entre deux domaines himalayens fortement contrastés, la Séquence Cristalline du Haut Himalaya (HHCS), composée de roches métamorphiques et l'Himalaya Tethysien (TH), composé de séries sédimentaires. La transition entre ces deux domaines est marquée par une structure tectonique majeure, la Zone de Cisaillement du Zanskar (ZSZ), au sein de laquelle on observe une augmentation extrêmement rapide, mais néanmoins graduelle, du degré du métamorphisme entre le TH et le HHCS. Il a été établi que le HHCS n'est autre que l'équivalent métamorphique des séries sédimentaires de la base du TH. C'est principalement lors d'un épisode de mise en place de nappes à vergence sudouest, entre l'Eocène moyen et l'Oligocène, que les séries sédimentaires de la base du TH ont été entraînées en profondeur où elles ont subi un métamorphisme de type barrovien. Au début du Miocène, le HHCS à été exhumé en direction du sud-ouest sous forme d'une grande nappe, délimitée a sa base par le MCT (principal chevauchement central) et à son sommet par la Zone de Cisaillement du Zanskar. L'ensemble des zones barroviennes, de la zone à biotite jusqu'à la zone à disthène, a été cisaillée par les mouvements en faille normale au sommet du HHCS et se retrouve actuellement sur une épaisseur d'environ 1 kilomètre au sein de la ZSZ. La décompression associée à l'exhumation du HHCS a provoqué la fusion partielle d'une partie du HHCS et a donné naissance à des magmas de composition leucogranitiques. Grâce à la géothermobarometrie, et connaissant la géométrie de la ZSZ, il nous a été possible de déterminer que le rejet le long de cette structure d'extension est d'au moins 35?9 kilomètres. Une série d'arguments nous permet cependant de suggérer que ce rejet aurait pu être encore bien plus important (~100km). Les données géochronologiques nous permettent de contraindre la durée des mouvements d'extension le long de la ZSZ à 2.4?0.2 Ma entre 22.2?0.2 Ma et 19.8?0.1 Ma. Ce travail apporte de nouvelles données sur les processus métamorphiques, magmatiques et tectoniques liés aux phénomènes d'extension syn-orogeniques.<br/><br/>The southeastern part of Zanskar is located at the transition between two major Himalayan domains of contrasting metamorphic grade, the High Himalayan Crystalline Sequence (HHCS) and the Tethyan Himalaya (TH). The transition between the TH and the HHCS is marked by a very rapid, although perfectly gradual, decrease in metamorphic grade, which coincides with a major tectonic structure, the Zanskar Shear Zone (ZSZ). It is now an established fact that the relation between the HHCS and the TH is not one of basement-cover type, but that the metasedimentary series of the HHCS represent the metamorphic equivalent of the lowermost sedimentary series of the TH. This transformation of sedimentary series into metamorphic rocks, and hence the differentiation between the TH and the HHCS, is the consequence of crustal thickening associated to the formation of large scale southwest vergent nappes within the Tethyan Himalaya sedimentary series. This, Middle Eocene to Oligocene, episode of crustal thickening and associated Barrovian metamorphism is followed, shortly after, by the exhumation of the HHCS as a, large scale, south-west vergent, nappe. Foreword The exhumation of the HHCS nappe is marked by the activation of two contemporaneous structures, the Main Central Thrust at its base and the Zanskar Shear Zone at its top. Extensional movements along the ZSZ, caused the Barrovian biotite to the kyanite zones to be sheared and constricted within the ~1 km thick shear zone. Decompression associated with the exhumation of the HHCS induced the formation of leucogranitic magmas through vapour-absent partial melting of the highest-grade rocks. The combination of geothermobarometric data with a geometric model of the ZSZ allowed us to constrain the net slip at the top of the HHCS to be at least 35?9 kilometres. A set of arguments however suggests that these movements might have been much more important (~ 100 km). Geochronological data coupled with structural observations constrain the duration of ductile shearing along the ZSZ to 2.4?0.2 Ma between 22.2?0.2 Ma and 19.8?0.1 Ma. This study also addresses the consequences of synorogenic extension on the metamorphic, tectonic and magmatic evolution of the upper parts of the High Himalayan Crystalline Sequence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1. Abstract Cervical cancer is thought to be the consequence of infection by human papillomaviruses (HPV). In the majority of cases, DNA from HPV type 16 (HPV16) is found in malignant cervical lesions. The initial steps leading to transformation of an infected cell are not clearly understood but in most cases, disruption and integration of the episomal viral DNA must take place. As a consequence, the E2 and E4 genes are usually not expressed whereas the E6 and E7 oncogenes are highly expressed. However, in a normal infection in which the viral DNA is maintained as an episome, all viral genes are expressed. The pattern according to which the viral proteins are made, and therefore the life cycle of the virus, is tightly linked to the differentiation process of the host keratinocyte. The study of the viral oncogenes E6 and E7 has revealed crucial functions in the process of malignant transformation such as degradation of the p53 tumor suppressor protein, deregulation of the Retinoblastoma protein pathway and activation of the telomerase ribonucleoprotein. All these steps are necessary for cancerous lesions to develop. However, the loss of the E2 gene product seems to be necessary for sufficient expression of E6 and E7 in order to achieve such effects. In normal infections, the E4 protein is made abundantly in the later stages of the viral life cycle. Though extensive amounts of work have been carried out to define the function of E4, it still remains unclear. In this study, several approaches have been used to try and determine the functions of E4. First, a cell-penetrating fusion protein was designed and produced in order to circumvent the chronic difficulties of expressing E4 in mammalian cells. Unfortunately, this approach was not successful due to precipitation of the purified fusion protein. Second, the observation that E4 accumulates in cells having modified their adhesion properties led to the hypothesis that E4 might be involved in the differentiation process of keratinocytes. Preliminary results suggest that E4 triggers differentiation. Last, as E4 has been reported to collapse the cytokeratin network of keratinocytes, a direct approach using atomic force microscopy has allowed us to test the potential modification of mechanical properties of cells harboring reorganized cytokeratin networks. If so, a potential role for E4 in viral particle release could be hypothesized. 2. Résumé Il a été établi que le cancer du col de l'utérus se développe essentiellement à la suite d'une infection par le virus du papillome humain (HPV). Dans la majorité des cas analysés, de l'ADN du HPV de type 16 (HPV16) est détecté. Les étapes initiales de la transformation d'une cellule infectée sont mal connues mais il semble qu'une rupture du génome viral, normalement épisomal, suivi d'une intégration dans le génome de la cellule hôte soient des étapes nécessaires dans la plupart des cas. Or il semble qu'il y ait une sélection pour les cas où l'expression des oncogènes viraux E6 et E7 soit favorisée alors que l'expression des gènes E2 et E4 est en général impossible. Par contre, dans une infection dite normale où le génome viral n'est pas rompu, il n'y pas développement de cancer et tous les gènes viraux sont exprimés. L'ordre dans lequel les protéines virales sont produites, et donc le cycle de réplication du virus, est intimement lié au processus de différentiation de la cellule hôte. L'étude des protéines oncogènes E6 et E7 a révélé des fonctions clés dans le processus de transformation des cellules infectées telles que la dégradation du suppresseur de tumeur p53, la dérégulation de la voie de signalisation Rb ainsi que l'activation de la télomérase. Toutes ces activités sont nécessaires au développement de lésions cancéreuses. Toutefois, il semble que l'expression du gène E2 doit être empêchée afin que suffisamment des protéines E6 et E7 soient produites. Lorsque le gène E2 est exprimé, et donc lorsque le génome viral n'est pas rompu, les protéines E6 et E7 n'entraînent pas de telles conséquences. Le gène E4, qui se trouve dans la séquence codante de E2, a aussi besoin d'un génome viral intact pour être exprimé. Dans une infection normale, le gène E4 est exprimé abondamment dans les dernières étapes de la réplication du virus. Bien que de nombreuses études aient été menées afin de déterminer la fonction virale à E4, aucun résultat n'apparaît évident. Dans ce travail, plusieurs approches ont été utilisées afin d'adresser cette question. Premièrement, une protéine de fusion TAT-E4 a été produite et purifiée. Cette protéine, pouvant entrer dans les cellules vivantes par diffusion au travers de la membrane plasmique, aurait permis d'éviter ainsi les problèmes chroniques rencontrés lors de l'expression de E4 dans les cellules mammifères. Malheureusement, cette stratégie n'a pas pu être utilisée à cause de la précipitation de la protéine purifiée. Ensuite, l'observation que E4 s'accumule dans les cellules ayant modifié leurs propriétés d'adhésion a suggéré que E4 pourrait être impliqué dans le procédé de différentiation des kératinocytes. Des résultats préliminaires supportent cette possibilité. Enfin, il a été montré que E4 pouvait induire une réorganisation du réseau des cytokératines. Une approche directe utilisant le microscope à force atomique nous a ainsi permis de tester une potentielle modification des propriétés mécaniques de cellules ayant modifié leur réseau de cytokératines en présence de E4. Si tel est le cas, un rôle dans la libération de particules virales peut être proposé pour E4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La complexité des parcours migratoires italiens, malgré la vaste littérature existante, n?a été souvent étudiée en profondeur qu'au niveau de la Confédération Helvétique ou bien dans le cadre d'un thème spécifique lié, plus en général, à la présence italienne en Suisse. En ce qui concerne le canton de Vaud, il n'existe pas, à notre connaissance, une étude scientifique spécifique sur la communauté italienne du canton. Il existe, bien sûr, des études concernant des thèmes spécifiques - nous y avons d?ailleurs contribué -, mais en réalité cette communauté reste méconnue dans son ensemble. Si des études scientifiques ou de vulgarisation ont mis en valeur certaines spécificités surtout historiques de cette communauté étrangère du canton de Vaud et de Suisse Romande, la parole n?a pas souvent été offerte à ces mêmes Italiens. C?est en partie dans le dessin de leur donner la parole, pour se raconter et pour raconter leur histoire de l?immigration italienne de l?aprèsguerre dans le canton de Vaud que ce travail a été fait. Il ne s?agit pas de l?objectif originel de cette recherche, surtout centré sur l?individuation des caractéristiques géographiques de la communauté italienne du canton de Vaud et moins axé sur les pratiques et la parole des migrants en question. Ce n?est qu?au fil des rencontres, des discussions, de résultats scientifiques qui sentaient le déjà vu, que le projet de thèse initial a évolué en allant vers les migrants, parfois « au détriment de la science pure » mais toujours en cherchant à rendre à ces Italiens leur statut d?individus à part entière. Il faut dire en outre que les études scientifiques ou les articles de vulgarisation existants n?ont pas souvent pris en considération la dimension spatiale. Cela ne concerne pas que les écrits concernant les Italiens de Suisse romande ou de la Confédération helvétique mais, plus généralement, l'ensemble des pays où la présence d?une population d'origine italienne constitue une part considérable de la présence étrangère ou d'origine étrangère. Ce qui laisse des creux assez importants dans les connaissances - par les acteurs bien sûr - non seulement des parcours migratoires mais aussi dans l?analyse des diverses spatialités qui, sommées, superposées, entrecroisées, juxtaposées, constituent l?une des composantes majeures de tout mouvement migratoire. Le parcours de recherche et quelques résultats Partis de schémas et de connaissances scientifiques « certaines » sur les phénomènes migratoires, nous avons dû nous obliger à revoir nos certitudes et à nous former tout en poursuivant notre chemin de recherche. Les connaissances et les compétences acquises « en route » nous ont bien confirmé que, pour chercher à pénétrer dans l?écheveau des parcours migratoires, il nous fallait abandonner l?idée de pouvoir les mesurer. Si quelques velléités quantitatives nous animaient encore, les acteurs de terrain nous ont bien aidé à les dépasser, à ne pas nous conformer au dictat de vouloir à tout prix mesurer un phénomène aussi opaque que les trajectoires migratoires. Par les reconstructions et les constructions en acte de ces mêmes trajectoires, nos témoins nous ont non seulement informés mais aussi formés à la découverte et à la reconstruction « bribe par bribe » - selon l?expression de Xavier Piolle » (Piolle, 1990, p. 149) - ce cette matière dense que sont les parcours migratoires des Italiens du canton de Vaud et cherchant à définir une grille de lecture de cet objet d?étude opaque et sinueux. Au fur et à mesure que cette grille se construisait, il nous paraissait de plus en plus clair que les Italiens mobilisés dans la recherche étaient en train de nous informer sur l?existence d?un mode de vie centré sur plusieurs références spatiales, sociales et culturelles qui ne pouvait en aucune manière s?apparenter aux modèles dedentarité et de mobilité « reconnus » par les académiciens et les gens communs. Ce mode de vie centré sur des ancrages, réels ou bien cristallisés dans la mémoire et régulièrement « re-vivifiés », est axé sur une mobilité et un mouvement qui prennent leur source dans des racines « ancestrales » ou actuelles. Dans ce nouveau mode de vie, que devient l?espace ? Il se fait un réseau fondé sur des références spatiales concrètes et quotidiennes et sur des références symboliques qui, malgré les obligations du quotidien et de la vie réelle, ne s?effacent jamais. L?ensemble de ces références sont constitutives de l?espace du migrant et de son mode de vie entre sédentarité et mobilité - anciennes et nouvelles -. Ce mode de vie est fait de ruptures, ces mêmes ruptures qui sont parfois incompréhensibles aux non-migrants, à tous ceux qui ne comprennent pas la « non conformation » du migrant à un modèle sédentaire. Ce modèle, apparemment révolutionnaire, n?est qu?un tout premier exemple, le plus ancien peut-être, des nouveaux modes de vie qui commencent à s?affirmer et à s?ancrer dans nos sociétés actuelles. Le migrant a été et continue d?être une sorte d? « éclaireur » pour ces mêmes sociétés qui, pourtant, n?arrêtent pas de le considérer « Autre » et « hors norme » par rapport au modèle dedentarité « monolithique » dominant. Le migrant, l? « homme porteur d?un ailleurs » plus ou moins lointain, nous enseigne que de nos jours être pluriel risque bien d?être un atout, que la (re)construction de nos identités nous ouvre au principe de la multiplicité et de l?altérité. Il est bien évident que pour arriver à entrer dans cette matière fluide, multiple et complexe, nous avons dû abandonner les chemins scientifiques habituels et que nous avons dû nous concentrer sur l?émergence de « bribes » plus que sur les données concrètes et mesurables concernant les Italiens du canton de Vaud. D?objet principal de la recherche qu?elle était, la communauté italienne du canton de Vaud s?est transformée en « objet instrumental », c?est-àdire en outil nécessaire à l?émergence et à l?étude des trajectoires migratoires des Italiens vivant dans cette région. Ce choix fait au cours de la recherche risque de ne pas satisfaire tous ceux qui voudraient « en savoir plus » sur la communauté italienne et qui rechercheraient dans ce travail des informations « factuelles » et mesurables. Nous avons été tenté par ce type d?approche, nous avons même cherché à la mettre en pratique : les résultats peu parlants pour nos interrogations sur les trajectoires migratoires nous en ont dissuadé. Cette recherche risque par ailleurs de décevoir également tous ceux qui y rechercheraient des mesures d?application concrètes. L?objectif de la recherche n?était pourtant pas la définition de modes opérationnels pour agir dans le cadre de la communauté italienne mais plutôt la découverte, par le terrain et en partenariat avec les Italiens mobilisés par les enquêtes, des tenants et aboutissants - les plus importants du moins - des trajectoires migratoires. Nous considérons que la compréhension des mécanismes et des spécificités des parcours migratoires, y compris leurs contradictions et parfois leurs anachronismes, est centrale, préalable à toute action éventuellement normative ou correctrice. Il ne nous appartient donc pas de faire des recommandations, de suggérer des décisions : seule l?action informative nous revient et nous appartient. Tel était bien le but de cette recherche. Les nouvelles pistes de recherche Notre action informative consiste dans la diffusion des résultats obtenus ainsi que dans la mise en évidence et la suggestion de nouvelles pistes de recherche et d?enquête, soit réflexives soit applicatives. Il nous paraît évident que se passer d?une réflexion « genrée » des migrations pourrait limiter la découverte des ressources existantes chez les migrants ainsi que rendre partielle la compréhension des problèmes « migratoires » anciens et nouveaux. L?approche genrée, bien que peu pratiquée jusqu?à présent, est une ressource « ancienne » mais longtemps considérée accessoire par les chercheurs tout comme par les édiles. La compréhension des spécificités et des différences dans les besoins et les aspirations des migrants et des migrantes peut conduire à devoir repenser toute action normative et correctrice, toute décision et tout choix qui, sans la prise en compte de cette composante, seraient nécessairement « artificiels » et ne correspondraient pas à la réalité migratoire. Si au début de cette recherche le chemin « genré » nous paraissait difficile à parcourir, dans le cadre des enquêtes sur le terrain en particulier - cette difficulté nous a dissuadé d?en faire l?objet « central » de notre recherche -, aujourd?hui l?acceptation du changement du rôle de la femme migrante - ainsi que les changements de cette même femme, moins passive et bien plus à même d?exprimer ses besoins et ses envies - nous rassure sur les opportunités de recherche futures ainsi que sur la portée des décisions futures concernant les migrants. La piste des jeunes migrants nous paraît aussi centrale et fondamentale dans les réflexions et les applications futures. Les modèles, les modes et les choix d?intervention sur le terrain font encore trop souvent référence à une réalité migratoire qui n?est plus ou bien qui prend encore en considération des références qui ne « font plus sens » pour les jeunes migrants. Les approches intergénérationnelles commencent timidement à se diffuser, tout en gardant une « aura » expérimentale qui risque de retarder la diffusion de ce mode de réflexion et d?action de la part des édiles comme des chercheurs. Il serait pourtant indispensable de ne pas trop prolonger cette expérimentation car la réalité de nos sociétés nous montre bien que la valorisation de quelques-unes des composantes « migratoires » augmente les risques d?affaiblissement des réseaux sociaux existants - les réseaux migratoires dans ce cas spécifique -. La réalité de nos sociétés, et de la société vaudoise dans ce cas particulier, nous donne aussi clairement l?indication d?une nouvelle réalité migratoire dans la communauté italienne : celle des « high skilled ». Composante marginale pendant des décennies, elle a acquis au cours des années ?90 du poids et de la visibilité. Sommes-nous face à une nouvelle « vague » migratoire, italienne dans ce cas spécifique, moins « redoutable » que les précédentes car constituée d?individus à même de s?intégrer plus facilement dans la société locale ? Ou bien sommes-nous face à la « concrétisation » et visibilisation d?un nouveau mode de vie, centré sur la mobilité, sur la « transition mobilitaire » dont nous parle Rémy Knafou ? Il est évident que la matière est encore assez « brute », qu?il nous manque des références spécifiques pour mieux entrer en matière et argumenter. Certains Pays occidentaux ne sont-ils pas en train de se demander comment rechercher et recruter des professionnels « high skilled » ? Cette nouvelle vague migratoire est peut-être composée par des « éclaireurs » qui expérimentent un nouveau mode de vie et de valorisation de leurs compétences professionnelles « au-dedes frontières nationales » et qui s? « alimentent » de mobilités successives. Cet ensemble de pistes, mais il y en a d?autres que nous pourrions cerner en allant plus en profondeur au sein des plus importantes, s?est révélé à nous par la manière de conduire notre recherche. Celle-ci en effet nous a demandé bien des parcours « à rebours », bien des remises en question, bien des périodes de prise de distance en regard d?une matière d?analyse qui, au fil du temps, s?est faite plus dense et plus problématique. Il nous paraît fondamental de rappeler encore une fois que la recherche n?a abouti que grâce au travail conduit sur le terrain par le chercheur, en observateur et en enquêteur d?abord, en acteur et partenaire de terrain par la suite. Cette méthode de recherche, parfois encore plus spiraliforme que les parcours migratoires, nous a permis de nous construire un « savoir être chercheur » et, par conséquent, un « savoir faire la recherche » dans le champ migratoire que nous n?envisagions pas au début de ce travail. L?acquisition de ces savoirs et les choix méthodologiques assumés nous paraissent encore plus indispensables à la fin de cette étude. Il ne s?agit pas de choix « partisans ». Nous avons bien expérimenté et cherché à utiliser les diverses approches possibles. Il s?agit plutôt de choix devenus nécessaires afin de mener la recherche à terme. Après maintes tentatives méthodologiques, nous avons bien compris qu?il existe des objets d?étude qui nécessitent l?adaptation du chercheur à leurs spécificités. Nous sommes convaincu que, voulant dépasser la phase purement « comptable » ou exploratoire d?un objet complexe et problématique comme les trajectoires migratoires, les méthodes d?enquête sur le terrain et avec les acteurs de terrain, restent les seules qui nous aident à pénétrer dans l?objet de recherche lui-même, qui nous soutiennent dans l?exploration sur la durée, qui nous permettent, par l?échange de savoirs différents, de participer à la recherche du « dedans », qui nous incitent à la confrontation de nos savoirs « savants » avec d?autres savoirs encore plus « savants » mais qui ne sont pas au bénéfice de la même légitimité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract The main objective of this work is to show how the choice of the temporal dimension and of the spatial structure of the population influences an artificial evolutionary process. In the field of Artificial Evolution we can observe a common trend in synchronously evolv¬ing panmictic populations, i.e., populations in which any individual can be recombined with any other individual. Already in the '90s, the works of Spiessens and Manderick, Sarma and De Jong, and Gorges-Schleuter have pointed out that, if a population is struc¬tured according to a mono- or bi-dimensional regular lattice, the evolutionary process shows a different dynamic with respect to the panmictic case. In particular, Sarma and De Jong have studied the selection pressure (i.e., the diffusion of a best individual when the only selection operator is active) induced by a regular bi-dimensional structure of the population, proposing a logistic modeling of the selection pressure curves. This model supposes that the diffusion of a best individual in a population follows an exponential law. We show that such a model is inadequate to describe the process, since the growth speed must be quadratic or sub-quadratic in the case of a bi-dimensional regular lattice. New linear and sub-quadratic models are proposed for modeling the selection pressure curves in, respectively, mono- and bi-dimensional regu¬lar structures. These models are extended to describe the process when asynchronous evolutions are employed. Different dynamics of the populations imply different search strategies of the resulting algorithm, when the evolutionary process is used to solve optimisation problems. A benchmark of both discrete and continuous test problems is used to study the search characteristics of the different topologies and updates of the populations. In the last decade, the pioneering studies of Watts and Strogatz have shown that most real networks, both in the biological and sociological worlds as well as in man-made structures, have mathematical properties that set them apart from regular and random structures. In particular, they introduced the concepts of small-world graphs, and they showed that this new family of structures has interesting computing capabilities. Populations structured according to these new topologies are proposed, and their evolutionary dynamics are studied and modeled. We also propose asynchronous evolutions for these structures, and the resulting evolutionary behaviors are investigated. Many man-made networks have grown, and are still growing incrementally, and explanations have been proposed for their actual shape, such as Albert and Barabasi's preferential attachment growth rule. However, many actual networks seem to have undergone some kind of Darwinian variation and selection. Thus, how these networks might have come to be selected is an interesting yet unanswered question. In the last part of this work, we show how a simple evolutionary algorithm can enable the emrgence o these kinds of structures for two prototypical problems of the automata networks world, the majority classification and the synchronisation problems. Synopsis L'objectif principal de ce travail est de montrer l'influence du choix de la dimension temporelle et de la structure spatiale d'une population sur un processus évolutionnaire artificiel. Dans le domaine de l'Evolution Artificielle on peut observer une tendence à évoluer d'une façon synchrone des populations panmictiques, où chaque individu peut être récombiné avec tout autre individu dans la population. Déjà dans les année '90, Spiessens et Manderick, Sarma et De Jong, et Gorges-Schleuter ont observé que, si une population possède une structure régulière mono- ou bi-dimensionnelle, le processus évolutionnaire montre une dynamique différente de celle d'une population panmictique. En particulier, Sarma et De Jong ont étudié la pression de sélection (c-à-d la diffusion d'un individu optimal quand seul l'opérateur de sélection est actif) induite par une structure régulière bi-dimensionnelle de la population, proposant une modélisation logistique des courbes de pression de sélection. Ce modèle suppose que la diffusion d'un individu optimal suit une loi exponentielle. On montre que ce modèle est inadéquat pour décrire ce phénomène, étant donné que la vitesse de croissance doit obéir à une loi quadratique ou sous-quadratique dans le cas d'une structure régulière bi-dimensionnelle. De nouveaux modèles linéaires et sous-quadratique sont proposés pour des structures mono- et bi-dimensionnelles. Ces modèles sont étendus pour décrire des processus évolutionnaires asynchrones. Différentes dynamiques de la population impliquent strategies différentes de recherche de l'algorithme résultant lorsque le processus évolutionnaire est utilisé pour résoudre des problèmes d'optimisation. Un ensemble de problèmes discrets et continus est utilisé pour étudier les charactéristiques de recherche des différentes topologies et mises à jour des populations. Ces dernières années, les études de Watts et Strogatz ont montré que beaucoup de réseaux, aussi bien dans les mondes biologiques et sociologiques que dans les structures produites par l'homme, ont des propriétés mathématiques qui les séparent à la fois des structures régulières et des structures aléatoires. En particulier, ils ont introduit la notion de graphe sm,all-world et ont montré que cette nouvelle famille de structures possède des intéressantes propriétés dynamiques. Des populations ayant ces nouvelles topologies sont proposés, et leurs dynamiques évolutionnaires sont étudiées et modélisées. Pour des populations ayant ces structures, des méthodes d'évolution asynchrone sont proposées, et la dynamique résultante est étudiée. Beaucoup de réseaux produits par l'homme se sont formés d'une façon incrémentale, et des explications pour leur forme actuelle ont été proposées, comme le preferential attachment de Albert et Barabàsi. Toutefois, beaucoup de réseaux existants doivent être le produit d'un processus de variation et sélection darwiniennes. Ainsi, la façon dont ces structures ont pu être sélectionnées est une question intéressante restée sans réponse. Dans la dernière partie de ce travail, on montre comment un simple processus évolutif artificiel permet à ce type de topologies d'émerger dans le cas de deux problèmes prototypiques des réseaux d'automates, les tâches de densité et de synchronisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé: Pratiquement tous les cancers du colon contiennent des mutations dans la voie de signalisation de Wnt qui active constitutivement cette voie. Cette activation mène à la stabilisation de la β-catenine. La β-catenin est transportée dans le noyau ou elle active des gènes cible en interagissant avec le facteur de transcription de TCF/LEF. Des adénovirus qui peuvent sélectivement se répliquer dans les cellules tumorales sont les agents qui peuvent permettre la déstruction de la tumeur mais pas le tissu normal. In vitro, les adénovirus avec des sites d'attachement du facteur de transcription TCF dans les promoteurs de l'adénovirus montrent une sélectivité et une activité dans une large sélection de lignées cellulaires de cancer du colon. Au contraire, in vivo, quand les adénovirus modifiés sont injectés dans la circulation, ils sont moins efficaces à cause de leur fixation par le foie et à cause de l'absence d'expression du récepteur du Coxsackie-Adénovirus (CAR). Le but de ma thèse était de modifier la protéine principale de capside de l'adénovirus, fibre, pour augmenter l'infection des tumeurs du cancer du colon. La fibre de l'adénovirus est responsable de l'attachement aux cellules et de l'entrée virale. J'ai inséré un peptide RGD dans la boucle HI de la fibre qui dirige sélectivement le virus aux récepteurs des integrines. Les integrines sont surexprimées par les cellules du cancer du colon et l'endothélium des vesseaux de la tumeur. Le virus re-ciblé, vKH6, a montré une activité accrue dans toutes les lignées cellulaires de cancer du colon, tandis que la sélectivité était maintenue. In vivo, vKH6 était supérieur au virus avec une capside de type sauvage en retardant la croissance de la tumeur. Le virus s'est répliqué plus vite et dispersé graduellement dans la tumeur. Cet effet a été montré par hybridation in situ et par PCR quantitative. Cependant, la monothérapie avec le virus n'a pu retarder la croissance des cellules tumorales SW620 greffées que de 2 semaines, mais à cause des régions non infectées la tumeur n'a pas pu être éliminée. Bien que la combinaison avec les chimiothérapies conventionnelles soit d'intérêt potentiel, presque toutes interfèrent avec la réplication virale. Les drogues antiangiogéniques sont des agents anti-tumoraux efficaces et prometteurs. Ces drogues n'interfèrent pas avec le cycle de vie de l'adénovirus. RAD001 est un dérivé de la rapamycine et il inhibe mTOR, une protéine kinase de la voie de PI3K. RAD001 empêche la croissance des cellules et il a aussi des effets anti-angiogénique et immunosuppressifs. RAD001 in vitro n'affecte pas l'expression des gènes viraux et la production virale. La combinaison de VKH6 et RAD001 in vivo a un effet additif en retardant la croissance de la tumeur. Des nouveaux peptides plus efficaces dans le ciblage de l'adénovirus sont nécessaires pour augmenter l'infection des tumeurs. J'ai créé un système de recombinaison qui permettra la sélection de nouveaux peptides dans le contexte du génome de l'adénovirus. Summary Virtually all colon cancers have mutations in the Wnt signalling pathway which result in the constitutive activation of the pathway. This activation leads to stabilization of β-catenin. β-catenin enters the nucleus and activates its target genes through interaction with the TCF transcription factor. Selectively replicating adenoviruses are promising novel agents that can destroy the tumour but not the surrounding normal tissue. In vitro, adenoviruses with TCF binding sites in the early viral promoters show selectivity and activity in a broad panel of viruses but in vivo they are less effective due to the lack of expression of the Coxsackie-Adenovirus receptor (CAR). The aim of my thesis was to modify the major capsid protein of the adenovirus, fibre, to increase the infection of colon tumours. Fibre of adenovirus is responsible for the binding to cells and for the viral uptake. I inserted an RGD binding peptide into the HI loop of fibre that selectively targets the virus to integrins that are overexpressed on tumour cells and on tumour endothelium. The retargeted virus, vKH6, showed increased activity in all colon cancer cell lines while selectivity was maintained. In vivo, vKH6 is superior to a matched virus with a wild type capsid in delaying tumour growth. vKH6 replicates and gradually spreads within the tumour as shown by in situ hybridization and Q-PCR. The virus alone can delay the growth of SW620 xenografts by 2 weeks but due to uninfected tumour regions the tumour cannot be cured. Although combination with conventional chemotherapeutics is of potential interest, almost all of them interfere with the viral replication. Growing evidence supports that anti-angiogenic drugs are effective and promising anti-tumour agents. These drugs interfere less with the viral life cycle. RAD001 is a rapamycin derivative and it blocks mTOR, a protein kinase in the PI3K pathway. RAD001 inhibits cell growth and has strong anti-angiogenic and immunosuppressive effects. RAD001 in vitro does not affect viral gene expression and viral burst size. In vivo vKH6 and RAD001 have an additive effect in delaying tumour growth, but tumour growth is still not completely inhibited. To further increase tumour infection new tumour specific targeting peptides are needed. I created an adenovirus display library that will allow the selection of targeting peptides. This system may also facilitate the production of fibre modified viruses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et dedecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et dedecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract The epithelial sodium channel (ENaC) is composed of three homologous subunits α, ß, and γ. This channel is involved in the regulation of sodium balance, which influences the periciliary liquid level in the lung, and blood pressure via the kidney. ENaC expressed in Xenopus laevis oocytes is preferentially and rapidly assembled into heteromeric αßγ complexes. Expression of homomeric α or heteromeric αß and αγ complexes lead to channel expression at the cell surface wíth low activities. Recent studies have demonstrated that α and γ (but not ß) ENaC subunits undergo proteolytic cleavage by endogenous proteases (i.e. furin) correlating with increased channel activity. We therefore assayed the full-length subunits and their cleavage products at the cell surface, as well as in the intracellular pool for all homo- and heteromeric combínations (α, ß, γ, ßγ, αß, αγ, ßγ and αßγ) and measured the corresponding channel activities as amiloride-sensitive sodíum transport (INa). We showed that upon assembly, cleavage of the y ENaC subunit ís responsible for increasing INa. We further demonstrated that in disease states such as cystic fibrosis (CF) where there is disequilibrium in the proteaseprotease inhibitor balance, ENaC is over-activated by the serine protease elastase (NE). We demonstrated that elevated NE concentrations can cleave cell surface expressed γ ENaC (but not α, or ß ENaC), suggesting a causal relationship between γ ENaC cleavage and ENaC activation, taking place at the plasma membrane. In addition, we demonstrated that the serine protease inhibitor (serpin) serpinH1, which is co-expressed with ENaC in the distal nephron is capable of inhibiting the channel by preventing cleavage of the γ ENaC subunit. Aldosterone mediated increases in INa aze known to be inhibted by TGFß. TGFß is also known to increase serpinHl expression. The demonstrated inhibition of γ ENaC cleavage and channel activation by serpinH1 may be responsible for the effect of TGFß on aldosterone stimulation in the distal nephron. In summary, we show that cleavage of the γ subunit, but not the α or ß subunit is linked to channel activation in three seperate contexts. Résumé Le canal épithélial à sodium (ENaC) est constitué de trois sous-unités homologues α, ß, and γ. Ce canal est impliqué dans le maintien de la balance sodique qui influence le niveau du liquide périciliaire du poumon et la pression sanguine via le rein. Dans les ovocytes de Xenopus laevis ENaC est préférentiellement et rapidement exprimé en formant un complexe hétéromérique αßγ. En revanche, l'expression homomérique de α ou hétéromérique des complexes αß et αγ conduit à une expression à la surface cellulaire d'un canal ENaC ne possédant qu'une faible activité. Des études récentes ont mis en évidence que les sous-unités α et γ d'ENaC (mais pas ß) sont coupées par des protéases endogènes (les farines) et que ces clivages augmentent l'activité du canal. Nous avons donc analysé, aussi bien à la surface cellulaire que dans le cytoplasme, les produits des clivages de combinaison homo- et hétéromérique des sous-unités d'ENaC (α, ß, γ, ßγ, αß, αγ, ßγ et αßγ). En parallèle, nous avons étudié l'activité correspondante à ces canaux par la mesure du transport de sodium sensible à l'amiloride (INa). Nous avons montré que lors de l'assemblage des sous-unités d'ENaC, le clivage de γ correspond à l'augmentation de INa. Nous avons également mis en évidence que dans une maladie telle que la fibrose cystique (CF) caractérisée par un déséquilibre de la balance protéase-inhibiteur de protéase, ENaC est suractivé par une sérine protéase nommée élastase (NE). L'augmentation de la concentration de NE clive γ ENaC exprimé à la surface cellulaire (mais pas α, ni ß ENaC) suggérant une causalité entre le clivage d'ENaC et son activation à la membrane plasmique. De plus, nous avons démontré que l'inhibiteur de sérine protéase (serpin) serpinH1, qui est co-exprimé avec ENaC dans le néphron distal, inhibe l'activité du canal en empêchant le clivage de la sous-unité γ ENaC. Il est connu que le INa induit par l'aldostérone peut être inhibé par TGFß. Or TGFß augmente l'expression de serpinH1. L'inhibition du clivage de γ ENaC et de l'activation du canal par la serpinH1 que nous avons mis en évidence pourrait ainsi être responsable de l'effet de TGFß sur la stimulation du courant par l'aldostérone dans le néphron distal. En résumé, nous avons montré que le clivage de la sous-unité γ, mais pas des sous-unités α et ß, est lié à l'activation du canal dans trois contextes distincts. Résumé tout public Le corps humain est composé d'environ 10 000 milliards de cellules et d'approximativement 60% d'eau. Les cellules du corps sont les unités fondamentales de la vie et elles sont dépendantes de certains nutriments et molécules. Ces nutriments et molécules sont dissous dans l'eau qui est présente dans et hors des cellules. Le maintien d'une concentration adéquate - de ces nutriments et de ces molécules dans l'eau à l'intérieur et à l'extérieur des cellules est -..essentiel pour leur survie. L'eau hors des cellules est nommée le fluide extracellulaire et peut être subdivisée en fluide interstitiel, qui se trouve autour des cellules, et en plasma, qui est le fluide des vaisseaux sanguins. Les fluides, les nutriments et les molécules sont constamment échangés entre les cellules, le fluide interstitiel, et le plasma. Le plasma circule dans le système circulatoire afin de distribuer les nutriments et molécules dans tout le corps et afin d'enlever les déchets cellulaires. Le rein joue un rôle essentiel dans la régulation du volume et de la concentration du plasma en éliminant sélectivement les nutriments et les molécules via la formation de l'urine. L'être humain possède deux reins, constitués chacun d'environ 1 million de néphrons. Ces derniers sont responsables de réabsorber et de sécréter sélectivement les nutriments et les molécules. Le canal épithélial à sodium (ENaC) est localisé à la surface cellulaire des néphrons et est responsable de la réabsorption du sodium (Na+). Le Na+ est présent dans quasiment toute la nourriture que nous mangeons et représente, en terme de molécule, 50% du sel de cuisine. Si trop de sodium est consommé, ENaC est inactif, si bien que le Na+ n'est pas réabsorbé et quitte le corps par l'urine. Ce mécanisme permet d'éviter que la concentration plasmatique de Na+ ne devienne trop grande, ce qui résulterait en une augmentation de la pression sanguine. Si trop peu de Na+ est consommé, ENaC réabsorbe le Na+ de l'urine primaire ce qui permet de conserver la concentration de Na+ et de prévenir une diminution de la pression sanguine par une perte de Na+. ENaC est aussi présent dans les cellules des poumons qui sont les organes permettant la respiration. La respiration est aussi essentielle pour la survie des cellules. Les poumons ne doivent pas contenir trop de liquide afin de permettre la respiration, mais en même temps ils ne doivent pas non plus être trop secs. En effet, ceci tuerait les cellules et empêcherait aussi la respiration. ENaC permet de maintenir un niveau d'humidité approprié dans les poumons en absorbant du Na+ ce qui entraîne un mouvement osmotique d'eau. L'absorption de sodium par ENaC ~ est augmentée par les protéases (in vitro et ex vivo). Les protéases sont des molécules qui peuvent couper d'autres molécules à des endroits précis. Nous avons démonté que certaines protéases augmentent l'absorption de Na+ en coupant ENaC à des endroits spécifiques. L'inhibition de ces protéases diminue le transport de Na+ et empêche le clivage d'ENaC. Dans certaines maladies telle que la mucoviscidose, des protéases sont suractivées et augmentent l'activité d'ENaC de manière inappropriée conduisant à une trop forte absorption de Na+ et à un déséquilibre de la muqueuse des poumons. Cette étude est donc particulièrement importante dans le cadre de la recherche thérapeutique de ce genre de maladie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé destiné à un large public Le système immunitaire associé aux muqueuses gastro-intestinales doit être capable de protéger notre organisme contre l'invasion de pathogènes. Parallèlement, il doit identifier en Cant que tels, des composés inoffensifs comme la nourriture ou les milliards de bactéries qui résident dans notre intestin. Le travail présenté ici aborde ces deux aspects essentiels au bon fonctionnement de notre muqueuse intestinale. Dans une première partie, la protéine nommée pièce sécrétoire a été étudiée pour ses propriétés protectrices contre le pathogène viral rotavirus. Le rôle de la pièce sécrétoire est de transporter les anticorps que nous produisons vers la surface des muqueuses. En dehors de cette fonction bien connue, il se peut que cette protéine soit également capable de protéger notre organisme contre certains virus. L'hypothèse de travail était donc que la pièce sécrétoire se lie directement au virus, l'empêchant ainsi d'infecter des cellules épithéliales de l'intestin. En utilisant différentes techniques biochimiques, cette hypothèse s'est révélée fausse car aucune interaction entre la pièce sécrétoire et le virus n'a pu être observée, et logiquement, aucune protection n'a pu prendre place. En revanche, la pièce sécrétoire se lie à d'autres structures pathogéniques et permet ainsi de neutraliser leurs effets néfastes. La pièce sécrétoire participe donc activement à la protection de nos muqueuses, en plus de son rôle de transporteur. La deuxième partie de ce travail avait pour sujet les réactions inappropriées que le système immunitaire induit parfois contre un aliment, ou, autrement dit, les allergies alimentaires. Un modèle d'allergie alimentaire à donc été développé chez la souris et a permis de mesurer plusieurs symptômes et facteurs liés à l'allergie. Puis, ce modèle a été utilisé afin de tester les effets bénéfiques d'une bactérie lactique, dite probiotique, sur le développement de l'allergie. Il a été observé que, sous certaines circonstances, l'administration de la bactérie lactique protégeait entièrement les souris contre les réactions allergiques. L'effet bénéfique dépend donc du probiotique mais également d'autres facteurs encore inconnus â ce jour. Cette étude ouvre la voie sur la compréhension des mécanismes liés aux allergies alimentaires et sur l'impact que peuvent avoir les bactéries probiotiques sur cette maladie. Résumé Le système immunitaire associé aux muqueuses intestinales doit être capable de différencier les antigènes inoffensifs tels que 1a nourriture ou les bactéries commensales des microorganismes potentiellement dangereux. Cet aspect est essentiel pour le maintien de l'homéostase intestinale et fait l'objet du travail présenté ici. Dans un premier projet, les propriétés protectrices de la protéine appelée pièce sécrétoire (SC) ont été étudiées. SC est une protéine connue pour le transport des immunoglobulines à la surface des muqueuses. Cette protéine est fortement glycosylée paz des sucres complexes, ce qui nous a mené à postuler que SC puisse interagir avec le pathogène rotavirus. Cette hypothèse était soutenue par le fait que ce virus adhère aux cellules épithéliales par des résidus glycosylés. Des analyses biochimiques et biologiques ont démontré qu'aucune interaction entre SC et le virus ne prenait place, et que par conséquent SC n'offrait aucune protection contre ce pathogène. En revanche, SC interagit avec d'autres structures pathogéniques, comme la toxine A de Clostridium difficile, et la molécule d'adhésion intimine de la bactérie entéropathogène Escherichia coli. La liaison se fait par l'intermédiaire des sucres et confère ainsi une protection contre ces pathogènes. Ainsi, SC a été identifié comme agent neutralisant au niveau de l'intestin. La deuxième partie de ce travail abordait le sujet des allergies alimentaires, et avait pour but de tester les effets bénéfiques potentiels d'une bactérie probiotique, Lactobacillus paracasei NCC2461, contre les réactions allergiques. Un modèle marin d'allergie alimentaire a été mis au point, permettant de mesurer des immunoglobulines E, des symptômes allergiques, et la dégranulation de mastocytes. Lorsque le probiotique a été administré aux souris, celles-ci ont été complètement protégées des réactions allergiques dans une première expérience. Cependant, cette protection n'a pas été reproduite et suggère que des facteurs environnementaux encore inconnus sont critiques pour que le probiotique agisse positivement. Ce travail a permis de mettre en évidence la complexité de l'approche des traitements liés aux probiotiques et ouvre la voie sur la compréhension des mécanismes liés à l'allergie. Abstract The mucosal immune system associated to the gastrointestinal mucosa must efficiently distinguish between innocuous antigens, such as food proteins and commensal bacteria and potentially infectious agents. The work presented here deals with these two essential aspects guaranteeing intestinal homeostasis. In the first part of this work, the protective properties of secretory component (SC) toward the pathogen rotavirus were investigated. SC, which allows the transport of polymeric immunoglobulins (Ig) to mucosal surfaces, is highly glycosylated with complex glycan structures. The abundance and the nature of these carbohydrates led us to speculate that SC might interact with rotavirus, which is known to bind target cells with glycan receptors. Using various biological and biochemical techniques, we demonstrated that SC did not interact with rotaviruses, nor protected epithelial cells from infection. However, SC was shown to bind to Clostridium difficile toxin A and to the enteropathogenic Echerischia coli adhesion molecule intimin in a glycan-dependent fashion. These interactions allow in vitro protection of epithelial cells using physiological concentrations of SC. These data identify SC as a microbial scavenger at mucosal surfaces, and in the context of secretory IgA, further enhance the neutralising properties of the complex. The second project was inscribed in the domain of food allergy and aimed to test the modulatory functions of a probiotic strain of Lactobacillus paracasei toward allergic reactions. A model of food-mediated allergy was developed in the mouse using mucosal sensitisation. Several parameters associated to allergy were quantified after allergen challenge, and included allergen-specific IgE, allergic signs like diarrhea and temperature drop, and degranulation of mast cells. Administration of the probiotic strain was shown to completely protect mice from allergic reactions. However, these data were not reproduced, suggesting that unknown environmental factors are required so that protection mediated by the probiotic strain occurs. This study paves the way to the understanding of the mechanisms associated to allergy, and highlights the tremendous complexity that probiotic treatments will have to face.