1000 resultados para comparaison différentielle
Resumo:
Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.
Resumo:
Les échantillons biologiques ne s?arrangent pas toujours en objets ordonnés (cristaux 2D ou hélices) nécessaires pour la microscopie électronique ni en cristaux 3D parfaitement ordonnés pour la cristallographie rayons X alors que de nombreux spécimens sont tout simplement trop << gros D pour la spectroscopie NMR. C?est pour ces raisons que l?analyse de particules isolées par la cryo-microscopie électronique est devenue une technique de plus en plus importante pour déterminer la structure de macromolécules. Néanmoins, le faible rapport signal-sur-bruit ainsi que la forte sensibilité des échantillons biologiques natifs face au faisceau électronique restent deux parmi les facteurs limitant la résolution. La cryo-coloration négative est une technique récemment développée permettant l?observation des échantillons biologiques avec le microscope électronique. Ils sont observés à l?état vitrifié et à basse température, en présence d?un colorant (molybdate d?ammonium). Les avantages de la cryo-coloration négative sont étudiés dans ce travail. Les résultats obtenus révèlent que les problèmes majeurs peuvent êtres évités par l?utilisation de cette nouvelle technique. Les échantillons sont représentés fidèlement avec un SNR 10 fois plus important que dans le cas des échantillons dans l?eau. De plus, la comparaison de données obtenues après de multiples expositions montre que les dégâts liés au faisceau électronique sont réduits considérablement. D?autre part, les résultats exposés mettent en évidence que la technique est idéale pour l?analyse à haute résolution de macromolécules biologiques. La solution vitrifiée de molybdate d?ammonium entourant l?échantillon n?empêche pas l?accès à la structure interne de la protéine. Finalement, plusieurs exemples d?application démontrent les avantages de cette technique nouvellement développée.<br/><br/>Many biological specimens do not arrange themselves in ordered assemblies (tubular or flat 2D crystals) suitable for electron crystallography, nor in perfectly ordered 3D crystals for X-ray diffraction; many other are simply too large to be approached by NMR spectroscopy. Therefore, single-particles analysis has become a progressively more important technique for structural determination of large isolated macromolecules by cryo-electron microscopy. Nevertheless, the low signal-to-noise ratio and the high electron-beam sensitivity of biological samples remain two main resolution-limiting factors, when the specimens are observed in their native state. Cryo-negative staining is a recently developed technique that allows the study of biological samples with the electron microscope. The samples are observed at low temperature, in the vitrified state, but in presence of a stain (ammonium molybdate). In the present work, the advantages of this novel technique are investigated: it is shown that cryo-negative staining can generally overcome most of the problems encountered with cryo-electron microscopy of vitrified native suspension of biological particles. The specimens are faithfully represented with a 10-times higher SNR than in the case of unstained samples. Beam-damage is found to be considerably reduced by comparison of multiple-exposure series of both stained and unstained samples. The present report also demonstrates that cryo-negative staining is capable of high- resolution analysis of biological macromolecules. The vitrified stain solution surrounding the sample does not forbid the access to the interna1 features (ie. the secondary structure) of a protein. This finding is of direct interest for the structural biologist trying to combine electron microscopy and X-ray data. developed electron microscopy technique. Finally, several application examples demonstrate the advantages of this newly
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.
Resumo:
Abstract Lipid derived signals mediate many stress and defense responses in multicellular eukaryotes. Among these are the jasmonates, potently active signaling compounds in plants. Jasmonic acid (JA) and 12-oxo-phytodienoic acid (OPDA) are the two best known members of the large jasmonate family. This thesis further investigates their roles as signals using genomic and proteomic approaches. The study is based on a simple genetic model involving two key genes. The first is ALLENE OXIDE SYNTHASE (AOS), encoding the most important enzyme in generating jasmonates. The second is CORONATINE INSENSITIVE 1 (COI1), a gene involved in all currently documented canonical signaling responses. We asked the simple question: do null mutations in AOS and COI1 have analogous effects on the transcriptome ? We found that they do not. If most COI1-dependent genes were also AOS-dependent, the expression of a zinc-finger protein was AOS-dependent but was unaffected by the coi1-1 mutation. We thus supposed that a jasmonate member, most probably OPDA, can alter gene expression partially independently of COI1. Conversely, the expression of at least three genes, one of these is a protein kinase, was shown to be COI1-dependent but did not require a functional AOS protein. We conclude that a non-jasmonate signal might alter gene expression through COIL Proteomic comparison of coi1-1 and aos plants confirmed these observations and highlighted probable protein degradation processes controlled by jasmonates and COI1 in the wounded leaf. This thesis revealed new functions for COI1 and for AOS-generated oxylipins in the jasmonate signaling pathway. Résumé Les signaux dérivés d'acides gras sont des médiateurs de réponses aux stress et de la défense des eucaryotes multicellulaires. Parmi eux, les jasmonates sont de puissants composés de sig¬nalisation chez les plantes. L'acide jasmonique (JA) et l'acide 12-oxo-phytodienoïc (OPDA) sont les deux membres les mieux caractérisés de la grande famille des jasmonates. Cette thèse étudie plus profondément leurs rôles de signalisation en utilisant des approches génomique et protéomique. Cette étude est basée sur un modèle génétique simple n'impliquant que deux gènes. Le premier est PALLENE OXYDE SYNTHASE (AOS) qui encode l'enzyme la plus importante pour la fabrication des jasmonates. Le deuxième est CORONATINE INSENSITIVE 1 (COI1) qui est impliqué dans la totalité des réponses aux jasmonates connues à ce jour. Nous avons posé la question suivante : est-ce que les mutations nulles dans les gènes AOS et COI1 ont des effets analogues sur le transcriptome ? Nous avons trouvé que ce n'était pas le cas. Si la majorité des gènes dépendants de COI1 sont également dépendants d'AOS, l'expression d'un gène codant pour une protéine formée de doigts de zinc n'est pas affectée par la mutation de COI1 tout en étant dépendante d'AOS. Nous avons donc supposé qu'un membre de la famille des jasmonates, probablement OPDA, pouvait modifier l'expression de certains gènes indépendamment de COI1. Inversement, nous avons montré que, tout en étant dépendante de COI1, l'expression d'au moins trois gènes, dont un codant pour une protéine kinase, n'était pas affectée par l'absence d'une protéine AOS fonctionnelle. Nous en avons conclu qu'un signal autre qu'un jasmonate devait modifier l'expression de certains gènes à travers COI1. La comparaison par protéomique de plantes aos et coi1-1 a confirmé ces observations et a mis en évidence un probable processus de dégradation de protéines contrôlé par les jasmonates et COU_ Cette thèse a mis en avant de nouvelles fonctions pour COI1 et pour des oxylipines générées par AOS dans le cadre de la signalisation par les jasmonates.
Resumo:
Résumé : Cette thèse de doctorat est le fruit d'un projet de recherche européen financé par le quatrième programme cadre de la Commission Européenne (DG XII, Standards, Measurement and Testing). Ce projet, dénommé SMT-CT98-2277, a été financé pour la partie suisse par l'Office Fédéral de l'Education et de la Science (OFES, Berne, Suisse). Le but de ce projet était de développer une méthode harmonisée et collaborativement testée pour le profilage des impuretés de l'amphétamine illicite par chromatographie capillaire en phase gazeuse. Le travail a été divisé en sept phases majeures qui concernaient la synthèse de l'amphétamine, l'identification d'impuretés, l'optimisation de la préparation de l'échantillon et du système chromatographique, la variabilité des résultats, l'investigation de méthodes mathématiques pour la classification et la comparaison de profils et finalement l'application de la méthode à des réels échantillons illicites. La méthode résultant de ce travail n'a pas seulement montré que les données étaient interchangeables entre laboratoires mais aussi qu'elle était supérieure en de nombreux points aux méthodes préalablement publiées dans la littérature scientifique. Abstract : This Ph.D. thesis was carried out in parallel to an European project funded by the fourth framework program of the European Commission (DG XII, Standards, Measurement and Testing). This project, named SMT-CT98-2277 was funded, for the Swiss part, by the Federal Office of Education and Science (OFES, Bern, Switzerland). The aim of the project was to develop a harmonised, collaboratively tested method for the impurity profiling of illicit amphetamine by capillary gas chromatography. The work was divided into seven main tasks which deal with the synthesis of amphetamine, identification of impurities, optimization of sample preparation and of the chromatographic system, variability of the results, investigation of numerical methods for the classification and comparison of profiles and finally application of the methodology to real illicit samples. The resulting method has not only shown to produce interchangeable data between different laboratories but was also found to be superior in many aspects to previously published methods.
Resumo:
Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).
Resumo:
Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.
Resumo:
Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.
Resumo:
Résumé : Ce travail comprend deux parties : La première partie a pour but de présenter une revue des techniques de gastrostomie chez l'enfant. La gastrostomie est, par définition, un tractus fistuleux entre l'estomac et la paroi abdominale. Le but de la gastrostomie est de permettre la décompression gastrique, la nutrition entérale et l'apport médicamenteux. Les indications et contre-indications à la confection et utilisation de la gastrostomie sont détaillées dans ce travail. Historiquement, les premières gastrostomies étaient d'origine accidentelle ou infectieuse (fistule gastro-cutanée), incompatibles avec la vie. Sedillot, en 1845 décrivit la première gastrostomie chirurgicale sans cathéter, qui avait comme désavantage la présence de fuites. Depuis, les techniques se sont multipliées en évoluant vers la continence et l'utilisation de cathéters. En 1979 Gauderer décrivit pour la première fois une technique percutanée, réalisée sur un enfant âgé de 5 mois. Cette technique est appelée « Percutaneous Endoscopic Gastrostomy » (PEG). Elle a ensuite été élargie à la population adulte. Actuellement, il existe une grande multiplicité de techniques par abord « laparotomique », laparoscopique ou percutanée (endoscopique ou radiologique). Ces techniques peuvent être combinées. Toutes ces techniques nécessitent la présence intermittente ou continue d'un dispositif, qui permet le maintient de la gastrostomie ouverte et évite les fuites gastriques. Ces dispositifs sont multiples; initialement il s'agissait de cathéters rigides (bois, métal, caoutchouc). Ensuite ils ont été fabriqués en silicone, ce qui les rend plus souples et mieux tolérés par le patient. Pour éviter leur dislocation, ils possèdent un système d'amarrage intra-gastrique tel que : un champignon (Bard®), un ballonnet (Foley®, Mic-Key®), ou une forme spiralée du cathéter (« pig-tail ») et possèdent un système d'amarrage extra-gastrique (« cross-bar »). En 1982, Gauderer créa le premier dispositif à fleur de peau : le bouton de gastrostomie (BG). Actuellement, il en existe deux types : à champignon (Bard®) et à ballonnet (Mic-Key®). Il existe plusieurs types de complications liées à la technique opératoire, à la prise en charge et au matériel utilisé. Une comparaison des différentes techniques, matériaux utilisés et coûts engendrés est détaillée dans ce travail. La deuxième partie de ce travail est dédiée aux BG et plus spécifiquement au BG à ballonnet (Mic-Key®). Nous présentons les différents boutons et les techniques spécifiques. Le BG est inséré soit dans une gastrostomie préformée, soit directement lors de la confection d'une gastrostomie par laparotomie, laparoscopie ou de façon percutanée. Les complications liées au BG sont rapportées. D'autres utilisations digestives ou urologiques sont décrites. Nous présentons ensuite notre expérience avec 513 BG à ballonnet (Mic-Key®) dans une revue de 73 enfants. La pose du BG est effectuée dans une gastrostomie préformée sans recours à une anesthésie générale. La technique choisie pour la confection de la gastrostomie dépend de la pathologie de base, de l'état général du patient, de la nécessité d'une opération concomitante et du risque anesthésique. Nous apportons des précisions sur le BG telles que la dimension en fonction de l'âge, la durée de vie, et les causes qui ont amené au changement du BG. Nos résultats sont comparés à ceux de la littérature. Sur la base de notre expérience et après avoir passé en revue la littérature spécialisée, nous proposons des recommandations sur le choix de la technique et le choix du matériel. Ce travail se termine avec une réflexion sur le devenir de la gastrostomie. Si le futur consiste à améliorer et innover les techniques et les matériaux, des protocoles destinés à la standardisation des techniques, à la sélection des patients et à l'enseignement des soins devraient s'en suivre. La prise en charge de l'enfant ne se limite pas à la sélection appropriée de la technique et des matériaux, mais il s'agit avant tout d'une approche multidisciplinaire. La collaboration entre le personnel soignant, la famille et l'enfant est essentielle pour que la prise en charge soit optimale et sans risques.
Resumo:
The effect of caponisation on carcass composition by parts and tissues was examined. Twenty-eight castrated and twenty male Penedesenca Negra chicks reared under free-range conditions were slaughtered at 28 weeks of age. The birds were castrated at 4 or 8 weeks. The left sides of the carcasses were quartered (wing, breast, thigh and drumstick), and the parts dissected into the tissue components (skin, subcutaneous fat, intermuscular fat, muscle, bone and tendons). Capons showed more abdominal, intermuscular and subcutaneous fat than the cocks, both at the same slaughter age and at the same weight. The breast and thigh were heavier in the capons than in the cocks. However, the whole muscle mass in the breast was increased by caponisation. This favourable effect was achieved at the expense of decreasing the carcass yield. The age of castration up to 8 weeks did not affect the carcass composition of the parts and tissues.
Resumo:
Durante estos últimos 50 años ha tenido lugar un abandono de las masías y de los cultivos tradicionales en los Prepirineos catalanes. En este trabajo se han estudiado los cambios de usos del suelo desde los años 50 hasta la actualidad en una cuenca de 6577 ha situada en la cabecera de la Ribera Salada (El Solsonès). Para ello se han utilizado fotografías aéreas del año 1957 y del año 1992. Como base cartográfica sirvieron los ortofotomapas del año 1993. El análisis de los cambios de usos según diferentes variables (pendiente y orientación) y según diferentes enfoques (intensidad del cambio y uso final), se ha llevado a cabo mediante el programa de SIG ARC/INFO®. Se han establecido tendencias en la evolución de los usos según la pendiente y la orientación. Los resultados obtenidos muestran que los campos de cultivo son los que han disminuido más en superficie, dando lugar a pastos. Por otro lado, el bosque denso ha aumentado considerablemente su extensión (845 ha).
Resumo:
La première partie de cette étude est consacrée à l'étude des vestiges découverts entre 1990 et 1994 à Yverdon-les-Bains (VD) en quatre points de la rue des Philosophes (n°s 7, 13, 21 et 27). L'étude des secteurs fouillés permet de retracer l'histoire d'une zone périphérique de l'agglomération depuis la fin du IVe s. av. J.-C. jusqu'au haut Moyen Age, où une nécropole s'est développée sur trois des parcelles étudiées {cf. CAR 75). L'accès oriental de l'agglomération est barré dès la fin du IVe s. par une palissade peut-être associée à un fossé. Le secteur sud n'a pas livré de vestige contemporain de cet aménagement, mais a été fréquenté depuis le début du IIe s. av. notre ère. Par la suite, un réseau de fossés de petites dimensions a été mis en place, qui d'un point de vue topographique se situe en aval du cordon littoral III, dans une zone anciennement marécageuse. Une fonction drainante a ainsi été postulée pour ces aménagements, qui ont peut-être été réalisés en vue de la construction du rempart. Celui-ci a été dégagé sur trois des parcelles fouillées. Un niveau de démolition repéré au n° 7 de la rue des Philosophes indique qu'il se prolongeait probablement en direction du lac, de l'autre côté de la voie d'accès conduisant à Voppidum partiellement dégagée en 1982 .Le rempart d'Yverdon se rattache au groupe des remparts à poteaux frontaux (Pfostenschlitzmauer) caractérisé par un parement en pierres sèches interrompu à intervalles réguliers (en moyenne 1.40 m) par des pieux de grandes dimensions (section: 50/60 x 30/40 cm) qui étaient reliés à une seconde rangée de pieux, distante d'environ 4 m du front de l'ouvrage; une rampe située à l'arrière de ce dispositif devait assurer la stabilité de l'ensemble. L'excellente conservation de plusieurs dizaines de ces pieux a permis de dater de manière absolue la construction de l'ouvrage vers 80 av. J.-C. Le rempart yverdonnois présente une particularité technique inédite des plus intéressante du point de vue constructif : les pieux des deux rangées ne sont pas implantés verticalement comme cela est généralement le cas, mais de manière oblique. Ce mode opératoire présente un progrès important, car il améliore notablement le comportement statique de l'ouvrage tout en facilitant sa mise en oeuvre (étude du Prof. L. Pflug). La fortification est précédée, dans le secteur sud, par plusieurs aménagements en bois, dont une palissade construite quelques années avant le rempart lui-même et une série de pieux qui pourrait appartenir à une ligne de défense avancée. Trois fossés précèdent le rempart dans le secteur oriental. Le premier, situé à moins d'un mètre de la base de la fortification, est probablement antérieur à cette dernière. Hormis les structures à caractère défensif, plusieurs aménagements de La Tène finale ont été dégagés sur les différentes parcelles, dont une cabane semi-enterrée de plan rectangulaire au n° 7 de la rue des Philosophes. En raison de sa situation extra muros et de son plan, une vocation artisanale a été proposée pour ce bâtiment. Une tombe datée de La Tène D1 par ses offrandes a été découverte au nord du chantier des Philosophes 21 parmi un groupe de sépultures de la nécropole tardo-antique du Pré de la Cure. La transgression lacustre mise en évidence au Parc Piguet paraît également avoir affecté la partie orientale de l'oppidum. Cet événement est survenu avant la démolition de la fortification, qui est datée vers le milieu du Ier s. avant notre ère. Les vestiges du vicus d'époque romaine, dégagés uniquement sur de petites surfaces, comprennent plusieurs constructions en terre et bois, une cave et un bâtiment maçonnés ainsi que plusieurs puits. L'étude du mobilier associé aux aménagements les plus récents situe l'abandon de l'agglomération dans la seconde moitié du IIIe s. ap. J.-C. pour trois des parcelles fouillées, alors que la zone des Philosophes 27 était peut-être encore occupée au siècle suivant.Les fouilles ont livré un abondant mobilier dont la majeure partie remonte à La Tène finale. La céramique de cette époque a été classée en fonction de critères technologique, formel et esthétique précis afin de mettre en évidence des marqueurs significatifs en termes chronologiques. Six horizons principaux ont été distingués, qui s'échelonnent entre le IIe s. av. J.-C. et le début de l'époque tibérienne. On retiendra pour la fin de l'âge du Fer que la première partie de La Tène finale est caractérisée par un vaisselier comprenant une majorité de formes basses en pâte sombre fine, alors que la période suivante voit une nette augmentation des récipients en pâte grossière, dont la plupart sont des pots à cuire à large lèvre déversée. Le registre décoratif évolue également: certains motifs ne sont attestés que durant une période, alors que d'autres se distinguent uniquement par leur fréquence. D'un point de vue économique, Yverdon, à l'image des sites du Plateau suisse, se situe durant la première partie de La Tène finale en dehors des voies commerciales. Les produits méditerranéens sont en effet extrêmement rares durant cette période, alors que leur nombre augmente sensiblement vers la fin de l'âge du Fer. La seconde partie de cette étude est dévolue à l'étude du murus gallicus de Sermuz (Ph. Curdy) et à la comparaison des divers modes constructifs mis en oeuvre pour les fortifications de la région des Trois-Lacs. La partie conclusive récapitule de manière chronologique l'évolution des occupations à Yverdon-les-Bains depuis l'âge du Bronze jusqu'au haut Moyen Âge et propose d'intégrer les nouveaux résultats dans une perspective historique. Diverses hypothèses évoquent les raisons qui conduirent les Yverdonnois à se retrancher vers 80 av. J.-C. et les relations qu'ils entretenaient avec le site voisin de Sermuz. Pour terminer, la fonction de ce dernier est discutée dans ce cadre, notamment l'hypothèse d'une occupation du territoire helvète par des troupes romaines antérieure à l'Alpenfeldzug .
Resumo:
La chute chez les personnes âgées est considérée comme un problème de santé publique en raison de sa fréquence, de ses conséquences ainsi que de l'efficacité de certain programmes de prévention. La chute est pourtant très souvent non signalée par les personnes ou par les professionnels. Je postule que la chute est un événement traumatisant ; j'examine d'une part son impact sur les trajectoires de personnes à partir de 50 ans et d'autre part l'adaptation à cet événement. Mobilisant différents types de données existantes, ce travail met en évidence les nombreux impacts de la chute au-delà de la santé, et notamment sur les dimensions sociales et sur la qualité de vie ; en comparaison à d'autres événements de santé, la chute présente un effet sur plusieurs indicateurs qui s'exprime tant à court qu'à long terme. J'identifie des facteurs de vulnérabilité à la chute : le moment de survenue de l'événement est un critère déterminant, l'adaptation étant plus difficile quand la chute survient chez des moins de 65 ans ; la gravité de l'événement entrave également la probabilité de s'y adapter. Par contre, les ressources institutionnelles sont sous-utilisées par les personnes concernées et les effets d'un programme généraliste de prévention des chutes fondé sur de l'activité physique et de l'éducation pour la santé sont modestes et ne se maintiennent pas au-delà de l'intervention. Au final, cette thèse apporte une contribution originale à l'étude psychosociale de la chute envisagée au moyen du modèle de la vulnérabilité : ses conclusions permettent d'ajuster des interventions qui devraient prioritairement viser à renforcer les ressources et stratégies individuelles et ensuite à gérer les conséquences identitaires et émotionnelles liées à la chute.
Resumo:
Le cancer de la vessie est le deuxième cancer urologique le plus fréquent dans le monde. La plupart des patients (75%) sont initialement diagnostiqués avec un cancer non musculo- invasif. Après résection trans-urétrale, ie traitement standard pour ce type de lésion chez les patients présentant un risque important de récidive/progression consiste en une série d'instillations intravésicales du Bacille de Calmette-Guerin (i.e. le vaccin BCG). Cependant cette "BCG thérapie" est associée à des effets secondaires non négligeables et s'avère inefficace dans 30% des cas, des limitations donc importantes qui soulignent la nécessité de développer des stratégies thérapeutiques alternatives. L'utilisation d'antigènes associés aux tumeurs (TAA) comme vaccin, combinée à une application locale d'immunostimulants sur le site tumoral, est une approche prometteuse en vue de maximiser les réponses immunitaires anti-tumorales localement. Nous montrons que la bactérie vivante atténuée Ty21a, issue du vaccin Vivotif® contre la fièvre typhoïde, peut être utilisée comme immunostimulant intravésical (IVES), mais ce uniquement dans le cas où la bactérie est en phase exponentielle de croissance (Vivotif exp). En effet, l'instillation IVES de Vivotif exp à la suite d'une vaccination par un TAA, un antigène mineur d'histocompatibilité mâle H-Y (Uty), permet d'augmenter de 15 fois le nombre de cellules T CD8 totales et spécifiques de l'antigène dans la vessie. Le recrutement des cellules T est TLR4-dépendent, ce qui suggère un rôle des lipopolysaccharides du Vivotif exp. Par ailleurs, en comparaison avec le contenu bactérien de la capsule de Vivotif, les bactéries en phase exponentielle de croissance permettent également une augmentation préférentielle des chemokines C5/C5a, CXCL1, CXCL2 et CXCL5 dans la vessie, mais pas du nombre de cellules T exprimant les récepteurs apparentés (C5aR et CXCR2). De plus, combiner la vaccination Uty avec le Vivotif exp en IVES permet d'améliorer la survie des souris présentant une tumeur orthotopique de la vessie exprimant l'antigène Uty (lignée tumorale murine MB49). Puisque pour certains cancers, aucun TAA - du moins exprimé à tous les stades tumoraux - n'est identifié, il est nécessaire de développer d'autres approches non vaccinales. Dans une deuxième partie de ce travail de thèse, nous avons donc investigué deux stratégies permettant d'induire une destruction des cellules tumorales, la thérapie génique par gène de suicide, d'une part, et la thérapie photodynamique dans le proche infrarouge (NIR-PDT), d'autre part. Pour appliquer ces thérapies, nous avons utilisé comme vecteur sûr et non toxique une forme non réplicative du virus du « Human Papillomavirus » (HPV) capable de "pseudo-infecter" préférentiellement les souris présentant des tumeurs vésicales (MB49). L'utilisation de pseudovirions (PsV) HPV portant comme gène suicide la thymidine kinase, une enzyme du virus de l'herpès simplex, suivi d'un traitement par la prodrogue Ganciclovir, permet de tuer 90% des cellules MB49 in-vitro ainsi que de ralentir significativement le développement des tumeurs vésicales in-vivo. Par ailleurs, l'emploi de particules pseudo- virales HPV couplées à la phtalocyanine IR700, un pigment photosensible présentant un pouvoir cytotoxique une fois activé, permet de tuer, après application d'une lumière dans le proche infrarouge, quasi 100% des cellules MB49 in-vitro et, plus important, de régresser des tumeurs in-vivo. De façon générale, ce travail de thèse présente des approches thérapeutiques innovantes et prometteuses pour le traitement des patients avec un cancer non musculo-invasif de la vessie. -- Bladder cancer is the second most common urological malignancy in the world. At initial diagnosis, non-muscle invasive bladder cancer (NMIBC) accounts for 75% of bladder cancer. The standard of care of NMIBC consists of intravesical (IVES) treatments with Bacillus- Calmette-Guerin (BCG) following transurethral resections of the lesions. However, repeated BCG treatments are associated with significant side effects and treatment failure may occur in 30% of the cases, underlying the necessity of alternative therapeutic strategies. The use of tumor-associated antigens (TAA) as vaccines followed by the local application of immunostimulants where the tumor resides is a promising approach to increase anti-tumor immune responses locally. We show that live attenuated Ty21a bacteria used from the vivotif® vaccine against typhoid fever can efficiently be used as IVES immunostimulant, only if bacteria are grown to exponential phase (Vivotif exp). In this condition, IVES immunostimulation after TAA vaccination with a minor histocompatibility male antigen HY (Uty) resulted in more than 15-fold increase of both vaccine-specific and total CD8-T cells in the bladder. T cell recruitment was mediated by TLR-4 suggesting that it was mainly mediated by lipopolysaccharides of Vivotif exp. In addition, these bacteria, as compared to the bacterial content of the vivotif capsule preferentially increased C5/C5a, CXCL1, CXCL2 and CXCL5 chemokines, but not the numbers of T cells expressing the cognate receptors (C5aR and CXCR2). Combination of IVES Vivotif exp with Uty vaccination improved survival of mice with pre-established orthotopic Uty-expressing MB49 murine bladder tumors, as compared to vaccination alone. As known TAA are not identified in all cancers, or not expressed in all stages of the tumor, we further investigated two potent approaches able of initiating tumor-cell destruction, suicide-gene therapy and near-infrared (NIR) photodynamic therapy (PDT). Towards a safe and non-toxic application of these therapies, we used Human Papillomavirus (HPV) replication-defective vectors that were able to preferentially pseudo-infect MB49-tumor bearing mice. HPV pseudovirions (PsV) carrying the Herpex-Simplex virus thymidine kinase suicide-gene followed by treatment with the prodrug Ganciclovir resulted in 90% of MB49 cell-death in-vitro and was able to significantly reduce bladder tumor growth in-vivo. Furthermore, HPV virus-like particles coupled to a NIR phtalocyanine dye, IR700 in combination with specific NIR light led to almost 100% of MB49 cell-death in-vitro and more interestingly, to bladder tumors shrinkage in-vivo. Overall, in this thesis, we offer promising therapeutic approaches for application in NMIBC patients.