654 resultados para Modélisation pharmacocinétique
Resumo:
Cet article (2006) décrit la démarche qui a fondé le développement de l'instrument d'évaluation de la peur de tomber à travers des "portraits" chez des personnes âgées vivant à domicile "chuteuses ou non chuteuses" (non publiés). Une analyse qualitative originale a été développée dans ce contexte la QUAPA (QUAlitative Pattern Analysis): une analyse des patterns permettant de décrire les différents degrés d'intensité auxquels la peur de tomber est décrites par les personnes âgées elles-mêmes. Cet instrument se base sur une validité "écologique". Il s'ancre dans le vécu des personnes âgées tel qu'il est rapporté et décrit par elles. L'évaluation de la peur de tomber réalisée à l'aide de ces portraits doit être confrontée à celle effectuée à l'aide d'autres instruments validés et largement utilisés dans le domaine de l'évaluation de la peur de tomber: FES, FES-I. Autres références publiées: Piot-Ziegler C (2002). La peur de tomber: comment l'évaluer ? Actualités Psychologiques, 12, 51-68. In C. Piot-Ziegler, (Vol. Ed.), Actualités Psychologiques: Vol. 12. Les chutes chez les personnes âgées: une approche interdisciplinaire (pp. 1-120). Piot-Ziegler C, Cuttelod T et Santiago M (2007). Définir la "peur de tomber" chez les personnes âgées à domicile. Etude qualitative. Bulletin de psychologie, 60(6), nov-déc, 515-525. Références non publiées: Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses ». Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).L'objectif de cet article (rédigé en 2006) est de dégager un modèle permettant d'évaluer l'intensité de la peur de tomber chez des personnes âgées vivant à domicile sur la base de données qualitatives récoltées dans une première étude (étude publiée: Piot-Ziegler et al. 2007).Dans cette étude qualitative, 58 entretiens semi-structurés ont été réalisés chez des personnes âgées vivant à domicile. Les thèmes abordés par les personnes âgées montrent que la peur de tomber se définit transversalement à travers les conséquences fonctionnelles, sociales et psychologiques consécutives à leur(s) chute(s).Afin d'explorer la possible existence de patterns, permettant de rendre compte de l'intensité de la peur de tomber, une méthode originale d'analyse qualitative (non informatisée) a été développée: la QUAPA (QUAlitative Patterns Analysis).Les résultats de cette analyse montrent l'existence d'une cohérence interne transversale (patterns) dans les trois dimensions définissant la peur de tomber (fonctionnelles, sociales et psychologiques) en fonction de l'intensité de la peur de tomber. Quatre patterns différents ont été mis en évidence. Ils débouchent sur une modélisation rendant compte des différents degrés d'intensité à laquelle la peur de tomber s'exprime chez les personnes âgées.Ce modèle en "patterns" permet d'évaluer la peur de tomber ressentie par une personne âgée en fonction des conséquences fonctionnelles, sociales et psychologiques à long terme consécutives à une ou plusieurs chutes. Ce modèle devra être mis à l'épreuve sur un grand échantillon de personnes âgées vivant à domicile ou dans d'autres espaces de vie (institutions), mais il constitue une alternative originale aux questionnaires utilisés actuellement qui se basent principalement sur le concept d'efficacité personnelle. Surtout il se base sur le vécu tel qu'il est rapporté par les personnes âgées elles-mêmes.Pour obtenir le questionnaire d'évaluation par "portraits" de la peur de tomber (e.mail: Chantal.Piot-Ziegler@unil.ch). Les documents suivants seront mis à disposition.Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses » (Questionnaire).Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).Mots-clés : chute ; peur de tomber ; personne âgée ; domicile ; recherche; approche compréhensive ; évaluation ; méthode qualitative ; pattern, QUAPA.
Resumo:
Résumé La réalisation d'une seconde ligne de métro (M2) dès 2004, passant dans le centre ville de Lausanne, a été l'opportunité de développer une méthodologie concernant des campagnes microgravimétriques dans un environnement urbain perturbé. Les corrections topographiques prennent une dimension particulière dans un tel milieu, car de nombreux objets non géologiques d'origine anthropogénique comme toutes sortes de sous-sols vides viennent perturber les mesures gravimétriques. Les études de génie civil d'avant projet de ce métro nous ont fournis une quantité importante d'informations cadastrales, notamment sur les contours des bâtiments, sur la position prévue du tube du M2, sur des profondeurs de sous-sol au voisinage du tube, mais aussi sur la géologie rencontré le long du corridor du M2 (issue des données lithologiques de forages géotechniques). La planimétrie des sous-sols a été traitée à l'aide des contours des bâtiments dans un SIG (Système d'Information Géographique), alors qu'une enquête de voisinage fut nécessaire pour mesurer la hauteur des sous-sols. Il a été alors possible, à partir d'un MNT (Modèle Numérique de Terrain) existant sur une grille au mètre, de mettre à jour celui ci avec les vides que représentent ces sous-sols. Les cycles de mesures gravimétriques ont été traités dans des bases de données Ac¬cess, pour permettre un plus grand contrôle des données, une plus grande rapidité de traitement, et une correction de relief rétroactive plus facile, notamment lorsque des mises à jour de la topographie ont lieu durant les travaux. Le quartier Caroline (entre le pont Bessières et la place de l'Ours) a été choisi comme zone d'étude. Le choix s'est porté sur ce quartier du fait que, durant ce travail de thèse, nous avions chronologiquement les phases pré et post creusement du tunnel du M2. Cela nous a permis d'effectuer deux campagnes gravimétriques (avant le creu¬sement durant l'été 2005 et après le creusement durant l'été 2007). Ces réitérations nous ont permis de tester notre modélisation du tunnel. En effet, en comparant les mesures des deux campagnes et la réponse gravifique du modèle du tube discrétisé en prismes rectangulaires, nous avons pu valider notre méthode de modélisation. La modélisation que nous avons développée nous permet de construire avec détail la forme de l'objet considéré avec la possibilité de recouper plusieurs fois des interfaces de terrains géologiques et la surface topographique. Ce type de modélisation peut s'appliquer à toutes constructions anthropogéniques de formes linéaires. Abstract The realization of a second underground (M2) in 2004, in downtown Lausanne, was the opportunity to develop a methodology of microgravity in urban environment. Terrain corrections take on special meaning in such environment. Many non-geologic anthropogenic objects like basements act as perturbation of gravity measurements. Civil engineering provided a large amount of cadastral informations, including out¬lines of buildings, M2 tube position, depths of some basements in the vicinity of the M2 corridor, and also on the geology encountered along the M2 corridor (from the lithological data from boreholes). Geometry of basements was deduced from building outlines in a GIS (Geographic Information System). Field investigation was carried out to measure or estimate heights of basements. A DEM (Digital Elevation Model) of the city of Lausanne is updated from voids of basements. Gravity cycles have been processed in Access database, to enable greater control of data, enhance speed processing, and retroactive terrain correction easier, when update of topographic surface are available. Caroline area (between the bridge Saint-Martin and Place de l'Ours) was chosen as the study area. This area was in particular interest because it was before and after digging in this thesis. This allowed us to conduct two gravity surveys (before excavation during summer 2005 and after excavation during summer 2007). These re-occupations enable us to test our modélisation of the tube. Actually, by comparing the difference of measurements between the both surveys and the gravity response of our model (by rectangular prisms), we were able to validate our modeling. The modeling method we developed allows us to construct detailed shape of an object with possibility to cross land geological interfaces and surface topography. This type of modélisation can be applied to all anthropogenic structures.
Resumo:
Ce travail de recherche a été réalisé dans le laboratoire de pharmacologie clinique, au Centre Hospitalier Universitaire Sainte-Justine, à Montréal. C'est une étude rétrospective basée sur le suivi thérapeutique du Tacrolimus prescrit chez les enfants après transplantation hépatique. Ce suivi est nécessaire car le Tacrolimus possède une importante variabilité pharmacocinétique inter et intra-individuelle ainsi qu'un index thérapeutique très étroit. Actuellement, l'individualisation des doses prescrites est basée sur la mesure de la concentration de base - du médicament dans le sang (C0), mais des études récentes montrent que cette mesure ne reflète pas précisément l'exposition du Tacrolimus dans l'organisme chez les enfants. Le meilleur reflet de cette exposition est la mesure de l'aire sous la courbe (AUC). Cependant, cette dernière implique la mesure de multiples concentrations tout au long de l'intervalle entre 2 doses de médicament (Tacrolimus: 12 heures) ce qui est long, cher et impraticable en ambulatoire. De nouvelles méthodes utilisant un nombre limité de prélèvements ont donc été développées pour prédire au mieux cette AUC. Ce sont les "Limited sampling strategies" ou LSS. La plupart de ces LSS pour le Tacrolimus ont été développées et validées chez des patients transplantés adultes et leur application directe chez les transplantés pédiatriques n'est pas possible en raison de différences importantes au niveau des paramètres pharmacocinétiques du médicament entre ces deux populations. Aussi, le but de ce travail était de développer et valider, pour la première fois, des LSS chez les enfants transplantés hépatiques. Pour cela, une analyse de 36 profils pharmacocinétiques de 28 patients transplantés hépatiques âgés de 0.4- 18.5 ans a été effectuée. Tous les profils ont été réalisés au Centre Hospitalier Universitaire Sainte-Justine entre janvier 2007 et janvier 2009. Les LSS comportant au maximum 4 mesures de concentration ont été développées en utilisant une analyse de régression multiple. Parmi tous les modèles obtenus, cinq ont été sélectionnés sur la base de critères précis puis validés selon la méthode décrite par Sheiner et Beal.¦Les résultats montrent que ces cinq modèles peuvent prédire l'AUC du Tacrolimus avec une précision cliniquement acceptable de ± 15% alors que la C0 présente la plus faible corrélation avec l'AUC.¦En conclusion, cette étude confirme que la C0 ne permet pas de prédire de manière efficace l'exposition du Tacrolimus dans l'organisme dans notre population de patients pédiatriques contrairement aux LSS analysées qui offrent une méthode pratique et fiable. Par ailleurs, en permettant d'obtenir une estimation précise et simplifiée de l'AUC complète du Tacrolimus chez les patients, ces LSS ouvrent la porte à de futures études prospectives visant à mieux définir l'AUC cible du médicament et à déterminer si le suivi basé sur la mesure de l'AUC est plus efficace et plus sûr que celui basé sur la mesure de la C0.
Resumo:
La désinfection des mains avant d'effectuer des soins est un acte indispensable en médecine clinique pour limiter le risque de transmission de germes. Après utilisation des produits désinfectants mis à disposition dans les services de soins, il se dégage une odeur alcoolique forte et désagréable, liée directement aux alcools antimicrobiens des solutions. Une étude a montré qu'une exposition aiguë et brève aux vapeurs d'éthanol et isopropanol chez des enfants prématurés pouvait être mise en relation avec des changements hémodynamiques au niveau de la zone olfactive orbito-frontale [1]. Aucune norme réglementant les concentrations de vapeurs d'éthanol ou isopropanol auxquelles les nouveau-nés peuvent être exposés n'existe. Cette thèse avait pour but d'étudier l'exposition des nouveaux nés soignés dans des incubateurs à des vapeurs d'alcool (éthanol et isopropanol). Elle était composée de 2 parties qui ont été publiées dans 2 articles différents et qui représentent le travail de doctorat [2-3]. La 1ère partie était une étude observationnelle d'une série de cas [2], Des mesures des concentrations des vapeurs d'alcool ont été effectuées auprès de 9 nouveau-nés soignés dans des incubateurs de même modèle au sein de l'unité de néonatologie du Centre Hospitalier Universitaire Vaudois à Lausanne. Sur 4 heures, les concentrations instantanées et moyennes ont été mesurées par deux techniques (photoionisation et respectivement chromatographic après absorption sur charbon actif). Onze analyses ont été effectuées en 2004-2005. Elles ont révélé des taux très variables d'éthanol et d'isopropanol dans les incubateurs (avec des valeurs maximales de 1982 ppm pour l'isopropanol et 906 ppm pour l'éthanol) correspondant aux introduction de mains fraîchement désinfectées dans les isolettes. Les concentrations moyennes variaient entre 9.8 ppm et plus de 61 ppm pour l'éthanol et < 0.01 ppm et 119 ppm pour l'isopropanol. La 2e partie a été réalisée en collaboration avec le PD Dr D. Vernez de l'Institut Universitaire Romand de Santé au Travail [3], Un modèle théorique prédictif des concentrations alcooliques dans des incubateurs pour nouveau-nés a été développé. Des séries de mesures standardisées des variations des concentrations alcooliques dans un incubateur sans patient ont été effectuées en changeant trois variables: 1) le renouvellement de l'air dans l'incubateur en variant le nombre de portes ouvertes, 2) la quantité de solution alcoolique versée sur les mains avant de les introduire dans l'incubateur 3) le temps de séchage des mains après désinfection et avant de les introduire dans l'incubateur. La modélisation a permis de décrire la cinétique des concentrations d'alcool dans les incubateurs et d'évaluer les pistes potentielles pour diminuer les risques d'exposition des nouveau-nés à ces vapeurs dans leurs incubateurs. En conclusion, la 1 ère partie a mis en évidence, pour la première fois, que des nouveau- nés soignés en incubateurs peuvent être exposés à des vapeurs d'alcool. Comme il η y a aucune norme d'exposition pour cette population et que les seules limites d'exposition existantes sont destinées à des travailleurs adultes, aucune conclusion précise ne peut être avancée sur les risques toxicologiques. L'exposition à des vapeurs polluantes d'un nouveau-né à terme ou prématuré, en plein développement neuro-sensoriel, devrait toutefois, à priori, être évitée. La 2ème partie permet de proposer des pistes pratiques pour diminuer les concentrations des vapeurs d'alcool dans les incubateurs: respecter le temps de séchage des mains après leur désinfection et avant de les introduire dans les isolettes et/ou préférer un désinfectant alcoolique à faible temps d'évaporation.
Resumo:
The capacity to interact socially and share information underlies the success of many animal species, humans included. Researchers of many fields have emphasized the evo¬lutionary significance of how patterns of connections between individuals, or the social networks, and learning abilities affect the information obtained by animal societies. To date, studies have focused on the dynamics either of social networks, or of the spread of information. The present work aims to study them together. We make use of mathematical and computational models to study the dynamics of networks, where social learning and information sharing affect the structure of the population the individuals belong to. The number and strength of the relationships between individuals, in turn, impact the accessibility and the diffusion of the shared information. Moreover, we inves¬tigate how different strategies in the evaluation and choice of interacting partners impact the processes of knowledge acquisition and social structure rearrangement. First, we look at how different evaluations of social interactions affect the availability of the information and the network topology. We compare a first case, where individuals evaluate social exchanges by the amount of information that can be shared by the partner, with a second case, where they evaluate interactions by considering their partners' social status. We show that, even if both strategies take into account the knowledge endowments of the partners, they have very different effects on the system. In particular, we find that the first case generally enables individuals to accumulate higher amounts of information, thanks to the more efficient patterns of social connections they are able to build. Then, we study the effects that homophily, or the tendency to interact with similar partners, has on knowledge accumulation and social structure. We compare the case where individuals who know the same information are more likely to learn socially from each other, to the opposite case, where individuals who know different information are instead more likely to learn socially from each other. We find that it is not trivial to claim which strategy is better than the other. Depending on the possibility of forgetting information, the way new social partners can be chosen, and the population size, we delineate the conditions for which each strategy allows accumulating more information, or in a faster way For these conditions, we also discuss the topological characteristics of the resulting social structure, relating them to the information dynamics outcome. In conclusion, this work paves the road for modeling the joint dynamics of the spread of information among individuals and their social interactions. It also provides a formal framework to study jointly the effects of different strategies in the choice of partners on social structure, and how they favor the accumulation of knowledge in the population. - La capacité d'interagir socialement et de partager des informations est à la base de la réussite de nombreuses espèces animales, y compris les humains. Les chercheurs de nombreux domaines ont souligné l'importance évolutive de la façon dont les modes de connexions entre individus, ou réseaux sociaux et les capacités d'apprentissage affectent les informations obtenues par les sociétés animales. À ce jour, les études se sont concentrées sur la dynamique soit des réseaux sociaux, soit de la diffusion de l'information. Le présent travail a pour but de les étudier ensemble. Nous utilisons des modèles mathématiques et informatiques pour étudier la dynamique des réseaux, où l'apprentissage social et le partage d'information affectent la structure de la population à laquelle les individus appartiennent. Le nombre et la solidité des relations entre les individus ont à leurs tours un impact sur l'accessibilité et la diffusion de l'informa¬tion partagée. Par ailleurs, nous étudions comment les différentes stratégies d'évaluation et de choix des partenaires d'interaction ont une incidence sur les processus d'acquisition des connaissances ainsi que le réarrangement de la structure sociale. Tout d'abord, nous examinons comment des évaluations différentes des interactions sociales influent sur la disponibilité de l'information ainsi que sur la topologie du réseau. Nous comparons un premier cas, où les individus évaluent les échanges sociaux par la quantité d'information qui peut être partagée par le partenaire, avec un second cas, où ils évaluent les interactions en tenant compte du statut social de leurs partenaires. Nous montrons que, même si les deux stratégies prennent en compte le montant de connaissances des partenaires, elles ont des effets très différents sur le système. En particulier, nous constatons que le premier cas permet généralement aux individus d'accumuler de plus grandes quantités d'information, grâce à des modèles de connexions sociales plus efficaces qu'ils sont capables de construire. Ensuite, nous étudions les effets que l'homophilie, ou la tendance à interagir avec des partenaires similaires, a sur l'accumulation des connaissances et la structure sociale. Nous comparons le cas où des personnes qui connaissent les mêmes informations sont plus sus¬ceptibles d'apprendre socialement l'une de l'autre, au cas où les individus qui connaissent des informations différentes sont au contraire plus susceptibles d'apprendre socialement l'un de l'autre. Nous constatons qu'il n'est pas trivial de déterminer quelle stratégie est meilleure que l'autre. En fonction de la possibilité d'oublier l'information, la façon dont les nouveaux partenaires sociaux peuvent être choisis, et la taille de la population, nous déterminons les conditions pour lesquelles chaque stratégie permet d'accumuler plus d'in¬formations, ou d'une manière plus rapide. Pour ces conditions, nous discutons également les caractéristiques topologiques de la structure sociale qui en résulte, les reliant au résultat de la dynamique de l'information. En conclusion, ce travail ouvre la route pour la modélisation de la dynamique conjointe de la diffusion de l'information entre les individus et leurs interactions sociales. Il fournit également un cadre formel pour étudier conjointement les effets de différentes stratégies de choix des partenaires sur la structure sociale et comment elles favorisent l'accumulation de connaissances dans la population.
Resumo:
Résumé Les esters sont des agents thérapeutiques largement utilisés comme médicaments et prodrogues. Leurs dégradation est chimique et enzymatique. Le Chapitre IV de cette thèse a comme objet l'hydrolyse chimique de plusieurs dérivés esters du 2,3-dimethoxyphenol. Des composés modèles ont été synthétisés dans le but de déterminer leur mécanismes de dégradation. Les profils d'ionisation et d'hydrolyse de ces composés ont permis d'identifier la présence d'une catalyse intramoléculaire basique par un atome d'azote non-protoné. Les effets électroniques exercés par les groupes phenylethenyle et phenylcyclopropyle influencent également la vitesse d'hydrolyse des esters. La résolution des problèmes liés à l'adsorption et la perméation est devenue à nos jours l'étape limitante dans la conception de nouveaux médicaments car de trop nombreux candidats prometteurs ont échoué à cause d'une mauvaise biodisponibilité. La lipophilie décrit le partage d'un médicament entre une membrane lipidique et son environnement physiologique aqueux, et de ce fait elle influence sa pharmacocinétique. Des études récents ont mis en évidence l'importance de la détermination de la lipophilie des espèces ionisées vu leur considérable impact biologique. Le Chapitre V de cette thèse est centré sur une classe particulière de composés ionisables, les zwitterions. Plusieurs methoxybenzylpiperazines de nature zwitterionique ont été étudiées. Leurs profils d'ionisation ont montré que dans un large intervalle de pH, l'espèce prédominante est le zwitterion. Les profils de lipophilie ont montré que leur lipophilie est plus élevée que celles des zwitterions courants. Une interaction électrostatique entre l'oxygène du carboxylate et l'azote protoné est responsable de ce profil et rend la plupart des zwitterions non-donneurs de liaison hydrogène. Ces deux aspects peuvent favoriser le passage de la barrière hémato-éncephalique. Les données biologiques ont par la suite confirmé cette hypothèse pour un certain nombre de composés. Résumé large public Les esters sont des composés souvent rencontrés en chimie thérapeutique. Ils sont dégradés en milieu aqueux par une réaction d'hydrolyse, avec ou sans la participation d'enzymes. Dans ce travail de thèse, une série d'esters ont été étudiés dans le but d'établir une relation entre leur structure et les mécanismes responsables de leur dégradation chimique. Il a été prouvé que la dégradation est accélérée par un atome d'azote non-protoné. D'autres mécanismes peuvent intervenir en fonction du pH du milieu. La présence d'une liaison simple ou double ou d'un groupe phenylcyclopropyle peut également influencer la vitesse de dégradation. Il est essentiel, dans la conception de nouveaux médicaments, d'optimiser les étapes qui influencent leur distribution dans le corps. Ce dernier peut être visualisé comme une série infinie de compartiments aqueux séparés par des membranes lipidiques. La lipophilie est une propriété moléculaire importante qui décrit le passage des barrières rencontrées par les médicaments. Des études récentes ont mis en évidence l'importance de déterminer la lipophilie des espèces ionisées vu leur considérable impact biologique. Dans ce travail de thèse a été étudiée une série particulière de composés ionisables , les zwitterions. Une relation a été établie entre leur structure et leur proprietés physico-chimiques. Une lipophilie plus élevée par rapport à celle des zwitterions courants a été trouvée. Une interaction entre les groupes chargés des zwitterions étudiés est responsable de ce comportement inattendu et rend la plupart d'entre eux non-donneurs de liaison hydrogène. Ces deux facteurs peuvent favoriser la pénétration cérébrale. Les données biologiques ont confirmé cette hypothèse pour un certain nombre de composés. Summary Esters are often encountered in medicinal chemistry. Their hydrolysis may be chemical as well as enzymatic. Chapter IV of this manuscript provides a mechanistic insight into the chemical hydrolysis of a particular series of basic esters derived from 2,3-dimethoxyphenol. Their ionization and pH-rate profiles allowed to identify the presence of an intramolecular base catalysis by a non-protonated nitrogen atom. Electronic effects exerted by the phenylethenyl and phenylcyclopropyl groups that are present in the structure of the esters also influenced their rate of hydrolysis. Numerous works in the literature witness of the importance of lipophilicity in determining the fate of a drug. Most published partition coefficients are those of neutral species. In contrast, no exhaustive treatment of the lipophilicity of charged molecules is available at present, and a lack of information characterizes in particular zwitterions. Chapter V of this manuscript provides an insight into the physicochemical parameters of a series of zwitterionic methoxybenzylpiperazines. Their ionization profiles showed that they exist predominantly in the zwitterionic form in a broad pH-range. An electrostatic interaction between the oxygen of the carboxylate and the protonated nitrogen atom is increases the lipophilicity of the investigated zwitterions, and prevents the majority of them to express their hydrogen-bonding capacity. These two aspects may favor the crossing of the blood-brain barrier. The available ratios PSt/PSf measured in vitro have confirmed this point for a number of compounds.
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Abstract The Northwestern edge of the modern Caribbean Plate, located in central Middle America (S-Guatemala to N-Costa Rica), is characterized by a puzzle of oceanic and continental terranes that belonged originally to the Pacific façade of North America. South of the Motagua Fault Zone, the actual northern strike slip boundary of the Caribbean Plate, three continental slivers (Copán, Chortis s. str. and Patuca) are sandwiched between two complex suture zones that contain HP/LT mafic and ultramafic oceanic rocks: The Motagua Mélanges to the North, extensively studied in the last ten years and the' newly defined Mesquito Composite Oceanic Terrane (MCOT) to the South. No modem geological data were available for the oceanic terrane located in the southern part of the so called continental "Chortis Block". Classically, the southern limit of this block with the Caribbean Large Igneous Province (CLIP) was placed at a hypothetical fault line connecting the main E-W fault in the Santa Elena Peninsula (N-Costa Rica) with the Hess Escarpment. However, our study in eastern Nicaragua and northwestern Costa Rica evidences an extensive assemblage of oceanic upper mantle and crustal rocks outcropping between the Chortis/Patuca continental blocks and the CLIP. They comprise collided and accreted exotic terranes of Pacific origin recording a polyphased tectonic history. We distinguish: 1- The MCOT that comprises a Late Triassic to Early Cretaceous puzzle of oceanic crust and arc-derived rocks set in a serpentinite matrix, and 2- The Manzanillo and Nicoya Terranes that are made of Cretaceous plateau-like rocks associated with oceanic sediments older than the CLIP. This study has been focused on the rocks of the MCOT. The MCOT comprises the southern half of the former "Chortis Block" and is defined by 4 comer localities characterized by ultramafic and mafic oceanic rocks of Late Triassic, Jurassic and Early Cretaceous age: 1- The Siuna Serpentinite Mélange (NE-Nicaragua), 2- The El Castillo Mélange (Nicaragua/Costa Rica border), 3- DSDP Legs 67 and 84 (Guatemala fore-arc basin), and 4- The Santa Elena Peridiotite (NW-Costa Rica). The Siuna Serpentinite Mélange (SSM) is a HP/LT subduction zone mélange set in a serpentinite matrix that contains oceanic crust and arc-related greenschist to blueschist/eclogite facies metamafic and metasedimentary blocks. Middle Jurassic (Bajocian-Bathonian) radiolarites are found in original sedimentary contact with arc-derived greenstones. Late Jurassic black detrital chert possibly formed in a marginal (fore-arc?) basin shortly before subduction. A phengite 40Ar/39Ar -cooling age dates the exhumation of the high pressure rocks as 139 Ma. The El Castillo Mélange (ECM) is composed of serpentinite matrix with OIB metabasalts and Late Triassic (Rhaetian) red and green radiolarite blocks. Recent studies of the DSDP Legs 67/84 show that the Guatemala/Nicaragua fore-arc basin is composed of a pile of ultramafic, mafic (OIB-like) and arc related rocks with ages ranging from Late Triassic to Campanian. Finally, the Santa Elena peridiotites that mark the limit of the MCOT with the Manzanillo/Nicoya Terranes and correspond to an association of ultramafic rocks that comprise peridiotites, dunites and chromites of abyssal and fore-arc origin. The SSM is the result of a collision between a Middle Jurassic island arc and the Patuca Terrane, a fragment of the Western N-American active continental margin. The Siuna Mélange (SSM) and the South Montagna Mélange share common characteristics with the Pacific N-American suture zone (E-Franciscan and Vizcaino mélanges), in particular, the Mesozoic ages of HP/LT metamorphic and the arc-derived blocks. For us, these mélanges imply an originally continuous, but slightly diachronous suture that affected the entire W-American active margin. It may imply the arrival and collision of an exotic intraoceanic arc (Guerrero-Phoenix) related to the origin of the Pacific Plate that initiated as a back arc basin of this arc. The present disposition of the fragments of this suture zone is the result of a northward shift of the active left-lateral strike slip motion between the N-American and the Caribbean Plates. Résumé Le coin nord-ouest de la Plaque Caraïbe moderne se trouve en Amérique Centrale, entre le sud du Guatemala et le nord du Costa Rica. Cette région est composée d'un puzzle de terrains océaniques et continentaux dont les origines se situent sur la façade pacifique de l'Amérique du Nord. Au sud de la faille de Motagua, la limite septentrionale actuelle, décrochante, de la Plaque Caraïbe, se trouvent 3 copeaux continentaux (Copàn, Chortis s. str. et Patuca) coincés entre deux zones de suture complexes à roches mafiques et ultramafiques qui ont subi un métamorphisme de haute pression/basse température (HP/LT). Il s'agit des Mélanges de Motagua au nord, largement étudiés ces dernières années, et du Mesquito Composite Oceanic Terrane (MCOT), récemment défini par nous, au sud. En vue de l'absence de données géologiques modernes concernant les terrains océaniques qui se trouvent dans la partie sud du "Chortis Block" considérée comme continentale, nous avons dédié cette étude à cette région. Classiquement, la limite méridionale entre le "Chortis Block" et la "Caribbean Large Igneous Province" (CLIP) a été associée à une faille hypothétique reliant la faille E-W de Santa Elena (nord du Costa Rica) à l'Escarpement de Hess. Notre étude au Nicaragua oriental et au Costa Rica nord-occidental a révélé l'existence de larges terrains composés d'assemblages de roches mantéliques et océaniques qui se placent entre les blocs continentaux Chortis/Patuca et le CLIP. Ces assemblages révèlent des terrains collisionnés et accrétés d'origine pacifique enregistrant une histoire tectonique polyphasée. Nous distinguons: 1- Le MCOT, un puzzle de roches océaniques d'arc d'âge Triassique supérieur au Crétacée inférieur, 2- Les terrains de Manzanillo et de Nicoya, des morceaux de plateaux océaniques associés à des sédiments océaniques plus âgés que le CLIP. Cette étude se focalisera sur les roches du MCOT. Le MCOT occupe la moitié sud de l'ancien "Chortis Block" et peut se définir par 4 localités de référence qui montrent des roches mafiques et ultramafiques océaniques d'âges compris entre le Trias supérieur et le Crétacée inférieur. 1- Le Siuna Serpentinite Mélange (NE-Nicaragua), 2- Le El Castillo Mélange (Nicaragua/Costa Rica border), 3- Le DSDP Legs 67/84 (Guatemala fore-arc basin) et 4- La Santa Elena Peridiotite (nord-ouest du Costa Rica). Le Siuna Serpentinite Mélange (SSM) est un mélange de subduction HP/BT dans une matrice de serpentinite. On y trouve des éléments de croûte océanique et d'arc insulaire en faciès de schistes verts et schistes bleus. Des radiolarites du Jurassique moyen se trouvent en contact sédimentaire sur des roches vertes d'arc. En revanche, des cherts noirs détritiques datent du Jurassique supérieur et sont probablement issus d'un bassin marginal (fore-arc ?) peu avant leur subduction, car un âge 40Ar/39Ar de refroidissement des phengites date l'exhumation des roches de haute pression à 139 Ma. Le Mélange d'El Castillo (ECM) est constitué d'une matrice serpentinitique et contient des blocs de metabasaltes OIB et des blocs de radiolarites du Trias terminal. Des études récentes ont repris les roches forées lors des DSDP Legs 67 et 84 et montrent que le soubassement du bassin d'avant-arc du Guatemala-Nicaragua est composé de roches ultramafiques et mafiques (OIB et arc), dont les âges isotopiques vont du Trias au Crétacé supérieur. Finalement, les péridiotites de Santa Elena forment la limite sud du MCOT par rapport aux terrains de Manzanillo et Nicoya. Elles contiennent des serpentinites et localement des dunites et chromites à affinité abyssale et de fore-arc. Le SSM témoigne d'une collision entre un arc insulaire d'âge Jurassique moyen et le Patuca Terrane, un fragment de la marge active nord-américaine. Le SSM et le South Motagua Mélange ont des caractéristiques en commun avec les zones de suture de la façade pacifique de l'Amérique du nord (E-Franciscan et Vizcaino mélanges), notamment les âges Mésozoïques du métamorphisme HP/BT et les blocs de roches d'arc. Ce fait nous conduit à penser qu'il s'agit d'une grande zone de suture qui était à l'origine continue sur toute la marge ouest-américaine, mais légèrement diachrone. Cette suture implique l'arrivée et la collision d'un arc intraocéanique exotique (Guerrero-Phoenix) qui est à l'origine de la Plaque Pacifique qui s'ouvrait en back arc par rapport à celui-ci. La disposition actuelle des fragments de cette suture est due à la migration vers le nord du décrochement actif senestre entre la Plaque nord-américaine et la Plaque Caraïbe. K. Flores, 2009 Mesozoic oceanic terranes of southern central America Résumé Grand Public La présente thèse est le résultat de travaux de terrain effectués de 2005 à 2008 au nord-est et au sud du Nicaragua et au nord du Costa Rica, en Amérique Centrale, des analyses pétrologiques et géochimiques en laboratoire ainsi que de la modélisation de l'évolution géodynamique. La région étudiée se situe en bordure nord - ouest de la Plaque Caraïbe moderne. Dans la majorité des publications récentes cette région est représentée comme un vaste bloc continental (le "Bloc Chortis") qui serait limité, (i) au nord, par la faille décrochante de Motagua, la limite actuelle entre la Plaque Nord-Américaine et la Plaque Caraïbe, et (ii) au sud, par une suture hypothétique qui se trouverait aux confins entre le Nicaragua et le Costa Rica. La région du Costa Rica a été considérée presque entièrement comme une partie du Plateau Caraïbe ("Caribbean Large Igneous Province" (CLIP)). L'étude détaillée des affleurements nous a permis de mettre en évidence : - Au nord-est du Nicaragua (Siuna) : Des roches océaniques datées du Jurassique moyen, grâce aux faunes à radiolaires qui ont été extraites des radiolarites rouges. Ces roches ont subi un métamorphisme de haute pression typique des zones de collision. L'étude radio-isotopique Ar/Ar a permis de dater la collision du Crétacé basal (139 Ma). - Au sud du Nicaragua : Des roches océaniques d'âge Trias terminal (200 millions d'années), également datées à l'aide de faunes à radiolaires. Il s'agit actuellement des roches océaniques les plus anciennes connues de l'Amérique Centrale. - L'étude géochimique et les âges des fossiles démontrent que le tiers septentrional du Costa Rica possède un soubassement construit d'au moins deux terrains (Nicoya et Manzanillo), qui ont des caractéristiques de Plateau océanique (Nicoya) et d'arc volcanique du Crétacé moyen (Manzanillo). Ces deux terrains sont plus anciens que le CLIP. En conclusion, nous constatons que la région étudiée est constituée d'un puzzle de 3 blocs continentaux et d'un vaste terrain océanique composite que nous appelons Mesquito Composite Oceanic Terrane (MCOT). En plus, nous définissons les terrains de Nicoya et de Manzanillo comme plus âgés et distincts du CLIP. Le MCOT est caractérisé par la présence de roches du manteau supérieur (les serpentinites) et de la croûte océanique, ainsi que des morceaux d'arcs, d'âge allant du Trias supérieur au Crétacé. Ce terrain est comparable à d'autres zones de suture de la façade pacifique de l'Amérique du nord, notamment en ce qui concerne les âges Mésozoïques, le métamorphisme de haute pression et l'association de roches mantéliques et crustales océaniques. Ce fait nous conduit à penser qu'il s'agit d'une grande zone de suture qui était à l'origine continue sur toute la marge ouest-américaine. Cette suture implique l'arrivée et la collision d'un arc infra-océanique exotique qui serait à l'origine de la Plaque Pacifique qui se serait ouverte en bassin d'arrière arc par rapport à celui-ci. La disposition actuelle des fragments de cette suture est due à la migration vers le nord du décrochement actif senestre entre la Plaque nord-américaine et la Plaque Caraïbe.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
THESIS ABSTRACT Garnets are one of the key metamorphic minerals used to study peak metamorphic conditions or crystallization ages. Equilibrium is typically assumed between the garnet and the matrix. This thesis attempts to understand garnet growth in the Zermatt-Saas Fee (ZSF) eclogites, and discusses consequences for Sm/Nd and Lu/Hf dating and the equilibrium assumption. All studied garnets from the ZSF eclogites are strongly zoned in Mn, Fe, Mg, and Ca. Methods based on chemical zoning patterns and on 3D spatial statistics indicate different growth mechanisms depending on the sample studied. Garnets from the Pfulwe area are grown in a system where surface kinetics likely dominated over intergranular diffusion kinetics. Garnets fram two other localities, Nuarsax and Lago di Cignana, seem to have grown in a system where intergranular diffusion kinetics were dominating over surface kinetics, at least during initial growth. Garnets reveal strong prograde REE+Y zoning. They contain narrow central peaks for Lu + Yb + Tm ± Er and at least one additional small peak towards the rim. The REE Sm + Eu + Gd + Tb ± Dy are depleted in the cores but show one prominent peak close to the rim. It is shown that these patterns cam be explained using a transient matrix diffusion model where REE uptake is limited by diffusion in the matrix surrounding the porphyroblast. The secondary peaks in the garnet profiles are interpreted to reflect thermally activated diffusion due to a temperature increase during prograde metamorphism. The model predicts anomalously low 176Lu/177Hf and 147Sm/144Nd ratios in garnets where growth rates are fast compared to diffusion of the REE, which decreases garnet isochron precisions. The sharp Lu zoning was further used to constrain maximum Lu volume diffusion rates in garnet. The modeled minimum pre-exponential diffusion coefficient which fits the measured central peak is in the order of Do = 5.7* 106 m2/s, taking an activation energy of 270 kJ/mol. The latter was chosen in agreement with experimentally determined values. This can be used to estimate a minimum closure temperature of around 630°C for the ZSF zone. Zoning of REE was combined with published Lu/Hf and Sm/Nd age information to redefine the prograde crystallization interval for Lago di Cignana UHP eclogites. Modeling revealed that a prograde growth interval in the order of 25 m.y. is needed to produce the measured spread in ages. RÉSUMÉ Le grenat est un minéral métamorphique clé pour déterminer les conditions du pic de métamorphisme ainsi que l'âge de cristallisation. L'équilibre entre le grenat et la matrice est requis. Cette étude a pour but de comprendre la croissance du grenat dans les éclogites de la zone de Zermatt-Saas Fee (ZSF) et d'examiner quelques conséquences sur les datations Sm/Nd et Lu/Hf. Tous les grenats des éclogites de ZSF étudiés sont fortement zonés en Mn, Fe, Mg et partiellement en Ca. Les différentes méthodes basées sur le modèle de zonation chimique ainsi que sur les statistiques de répartition spatiale en 3D indiquent un mécanisme de croissance différent en fonction de la localité d'échantillonnage. Les grenats provenant de la zone de Pfulwe ont probablement crû dans un système principalement dominé par la cinétique de surface au détriment de 1a cinétique de diffusion intergranulaire. Les grenats provenant de deux autres localités, Nuarsax et Lago di Cignana, semblent avoir cristallisé dans un système dominé par la diffusion intergranulaire, au moins durant les premiers stades de croissance. Les grenats montrent une forte zonation prograde en Terres Rares (REE) ainsi qu'en Y. Les profils présentent au coeur un pic étroit en Lu + Yb+ Tm ± Er et au moins un petit pic supplémentaire vers le bord. Les coeurs des grenats sont appauvris en Sm + Eu + Gd + Tb ± Dy, mais les bords sont marqués par un pic important de ces REE. Ces profils s'expliquent par un modèle de diffusion matricielle dans lequel l'apport en REE est limité par la diffusion dans la matrice environnant les porphyroblastes. Les pics secondaires en bordure de grain reflètent la diffusion activée par l'augmentation de la température lors du métamorphisme prograde. Ce modèle prédit des rapports 176Lu/177Hf et 147Sm/144Nd anormalement bas lorsque les taux de croissance sont plus rapides que la diffusion des REE, ce qui diminue la précision des isochrones impliquant le grenat. La zonation nette en Lu a permis de contraindre le maximum de diffusion volumique par une approche numérique. Le coefficient de diffusion minimum modélisé en adéquation avec les pics mesurés est de l'ordre de Do = 5.7*10-6 m2/s, en prenant une énergie d'activation ~270 kJ/mol déterminée expérimentalement. Ainsi, la température de clôture minimale est estimée aux alentours de 630°C pour la zone ZSF. Des nouvelles données de zonation de REE sont combinées aux âges obtenus avec les rapports Lu/Hf et Sm/Nd qui redéfissent l'intervalle de cristallisation prograde pour les éclogites UHP de Lago di Cignana. La modélisation permet d'attribuer au minimum un intervalle de croissance prograde de 25 Ma afin d'obtenir les âges préalablement mesurés. RESUME GRAND PUBLIC L'un des principaux buts du pétrologue .métamorphique est d'extraire des roches les informations sur l'évolution temporelle, thermique et barométrique qu'elles ont subi au cours de la formation d'une chaîne de montagne. Le grenat est l'un des minéraux clés dans une grande variété de roches métamorphiques. Il a fait l'objet de nombreuses études dans des terrains d'origines variées ou lors d'études expérimentales afin de comprendre ses domaines de stabilité, ses réactions et sa coexistence avec d'autres minéraux. Cela fait du grenat l'un des minéraux les plus attractifs pour la datation des roches. Cependant, lorsqu'on l'utilise pour la datation et/ou pour la géothermobarométrie, on suppose toujours que le grenat croît en équilibre avec les phases coexistantes de la matrice. Pourtant, la croissance d'un minéral est en général liée au processus de déséquilibre. Cette étude a pour but de comprendre comment croît le grenat dans les éclogites de Zermatt - Saas Fee et donc d'évaluer le degré de déséquilibre. Il s'agit aussi d'expliquer les différences d'âges obtenues grâce aux grenats dans les différentes localités de l'unité de Zermatt-Saas Fee. La principale question posée lors de l'étude des mécanismes de croissance du grenat est: Parmi les processus en jeu lors de la croissance du grenat (dissolution des anciens minéraux, transport des éléments vers le nouveau grenat, précipitation d'une nouvelle couche en surface du minéral), lequel est le plus lent et ainsi détermine le degré de déséquilibre? En effet, les grenats d'une des localités (Pfulwe) indiquent que le phénomène d'adhérence en surface est le plus lent, contrairement aux grenats des autres localités (Lago di Cignana, Nuarsax) dans lesquels ce sont les processus de transport qui sont les plus lents. Cela montre que les processus dominants sont variables, même dans des roches similaires de la même unité tectonique. Ceci implique que les processus doivent être déterminés individuellement pour chaque roche afin d'évaluer le degré de déséquilibre du grenat dans la roche. Tous les grenats analysés présentent au coeur une forte concentration de Terres Rares: Lu + Yb + Tm ± Er qui décroît vers le bord du grain. Inversement, les Terres Rares Sm + Eu + Gd + Tb ± Dy sont appauvries au coeur et se concentrent en bordure du grain. La modélisation révèle que ces profils sont-dus à des cinétiques lentes de transport des Terres Rares. De plus, les modèles prédisent des concentrations basses en éléments radiogéniques pères dans certaines roches, ce qui influence fortement sur la précision des âges obtenus par la méthode d'isochrone. Ceci signifie que les roches les plus adaptées pour les datations ne doivent contenir ni beaucoup de grenat ni de très gros cristaux, car dans ce cas, la compétition des éléments entre les cristaux limite à de faibles concentrations la quantité d'éléments pères dans chaque cristal.
Resumo:
Les plantes sont essentielles pour les sociétés humaines. Notre alimentation quotidienne, les matériaux de constructions et les sources énergétiques dérivent de la biomasse végétale. En revanche, la compréhension des multiples aspects développementaux des plantes est encore peu exploitée et représente un sujet de recherche majeur pour la science. L'émergence des technologies à haut débit pour le séquençage de génome à grande échelle ou l'imagerie de haute résolution permet à présent de produire des quantités énormes d'information. L'analyse informatique est une façon d'intégrer ces données et de réduire la complexité apparente vers une échelle d'abstraction appropriée, dont la finalité est de fournir des perspectives de recherches ciblées. Ceci représente la raison première de cette thèse. En d'autres termes, nous appliquons des méthodes descriptives et prédictives combinées à des simulations numériques afin d'apporter des solutions originales à des problèmes relatifs à la morphogénèse à l'échelle de la cellule et de l'organe. Nous nous sommes fixés parmi les objectifs principaux de cette thèse d'élucider de quelle manière l'interaction croisée des phytohormones auxine et brassinosteroïdes (BRs) détermine la croissance de la cellule dans la racine du méristème apical d'Arabidopsis thaliana, l'organisme modèle de référence pour les études moléculaires en plantes. Pour reconstruire le réseau de signalement cellulaire, nous avons extrait de la littérature les informations pertinentes concernant les relations entre les protéines impliquées dans la transduction des signaux hormonaux. Le réseau a ensuite été modélisé en utilisant un formalisme logique et qualitatif pour pallier l'absence de données quantitatives. Tout d'abord, Les résultats ont permis de confirmer que l'auxine et les BRs agissent en synergie pour contrôler la croissance de la cellule, puis, d'expliquer des observations phénotypiques paradoxales et au final, de mettre à jour une interaction clef entre deux protéines dans la maintenance du méristème de la racine. Une étude ultérieure chez la plante modèle Brachypodium dystachion (Brachypo- dium) a révélé l'ajustement du réseau d'interaction croisée entre auxine et éthylène par rapport à Arabidopsis. Chez ce dernier, interférer avec la biosynthèse de l'auxine mène à la formation d'une racine courte. Néanmoins, nous avons isolé chez Brachypodium un mutant hypomorphique dans la biosynthèse de l'auxine qui affiche une racine plus longue. Nous avons alors conduit une analyse morphométrique qui a confirmé que des cellules plus anisotropique (plus fines et longues) sont à l'origine de ce phénotype racinaire. Des analyses plus approfondies ont démontré que la différence phénotypique entre Brachypodium et Arabidopsis s'explique par une inversion de la fonction régulatrice dans la relation entre le réseau de signalisation par l'éthylène et la biosynthèse de l'auxine. L'analyse morphométrique utilisée dans l'étude précédente exploite le pipeline de traitement d'image de notre méthode d'histologie quantitative. Pendant la croissance secondaire, la symétrie bilatérale de l'hypocotyle est remplacée par une symétrie radiale et une organisation concentrique des tissus constitutifs. Ces tissus sont initialement composés d'une douzaine de cellules mais peuvent aisément atteindre des dizaines de milliers dans les derniers stades du développement. Cette échelle dépasse largement le seuil d'investigation par les moyens dits 'traditionnels' comme l'imagerie directe de tissus en profondeur. L'étude de ce système pendant cette phase de développement ne peut se faire qu'en réalisant des coupes fines de l'organe, ce qui empêche une compréhension des phénomènes cellulaires dynamiques sous-jacents. Nous y avons remédié en proposant une stratégie originale nommée, histologie quantitative. De fait, nous avons extrait l'information contenue dans des images de très haute résolution de sections transverses d'hypocotyles en utilisant un pipeline d'analyse et de segmentation d'image à grande échelle. Nous l'avons ensuite combiné avec un algorithme de reconnaissance automatique des cellules. Cet outil nous a permis de réaliser une description quantitative de la progression de la croissance secondaire révélant des schémas développementales non-apparents avec une inspection visuelle classique. La formation de pôle de phloèmes en structure répétée et espacée entre eux d'une longueur constante illustre les bénéfices de notre approche. Par ailleurs, l'exploitation approfondie de ces résultats a montré un changement de croissance anisotropique des cellules du cambium et du phloème qui semble en phase avec l'expansion du xylème. Combinant des outils génétiques et de la modélisation biomécanique, nous avons démontré que seule la croissance plus rapide des tissus internes peut produire une réorientation de l'axe de croissance anisotropique des tissus périphériques. Cette prédiction a été confirmée par le calcul du ratio des taux de croissance du xylème et du phloème au cours de développement secondaire ; des ratios élevés sont effectivement observés et concomitant à l'établissement progressif et tangentiel du cambium. Ces résultats suggèrent un mécanisme d'auto-organisation établi par un gradient de division méristématique qui génèrent une distribution de contraintes mécaniques. Ceci réoriente la croissance anisotropique des tissus périphériques pour supporter la croissance secondaire. - Plants are essential for human society, because our daily food, construction materials and sustainable energy are derived from plant biomass. Yet, despite this importance, the multiple developmental aspects of plants are still poorly understood and represent a major challenge for science. With the emergence of high throughput devices for genome sequencing and high-resolution imaging, data has never been so easy to collect, generating huge amounts of information. Computational analysis is one way to integrate those data and to decrease the apparent complexity towards an appropriate scale of abstraction with the aim to eventually provide new answers and direct further research perspectives. This is the motivation behind this thesis work, i.e. the application of descriptive and predictive analytics combined with computational modeling to answer problems that revolve around morphogenesis at the subcellular and organ scale. One of the goals of this thesis is to elucidate how the auxin-brassinosteroid phytohormone interaction determines the cell growth in the root apical meristem of Arabidopsis thaliana (Arabidopsis), the plant model of reference for molecular studies. The pertinent information about signaling protein relationships was obtained through the literature to reconstruct the entire hormonal crosstalk. Due to a lack of quantitative information, we employed a qualitative modeling formalism. This work permitted to confirm the synergistic effect of the hormonal crosstalk on cell elongation, to explain some of our paradoxical mutant phenotypes and to predict a novel interaction between the BREVIS RADIX (BRX) protein and the transcription factor MONOPTEROS (MP),which turned out to be critical for the maintenance of the root meristem. On the same subcellular scale, another study in the monocot model Brachypodium dystachion (Brachypodium) revealed an alternative wiring of auxin-ethylene crosstalk as compared to Arabidopsis. In the latter, increasing interference with auxin biosynthesis results in progressively shorter roots. By contrast, a hypomorphic Brachypodium mutant isolated in this study in an enzyme of the auxin biosynthesis pathway displayed a dramatically longer seminal root. Our morphometric analysis confirmed that more anisotropic cells (thinner and longer) are principally responsible for the mutant root phenotype. Further characterization pointed towards an inverted regulatory logic in the relation between ethylene signaling and auxin biosynthesis in Brachypodium as compared to Arabidopsis, which explains the phenotypic discrepancy. Finally, the morphometric analysis of hypocotyl secondary growth that we applied in this study was performed with the image-processing pipeline of our quantitative histology method. During its secondary growth, the hypocotyl reorganizes its primary bilateral symmetry to a radial symmetry of highly specialized tissues comprising several thousand cells, starting with a few dozens. However, such a scale only permits observations in thin cross-sections, severely hampering a comprehensive analysis of the morphodynamics involved. Our quantitative histology strategy overcomes this limitation. We acquired hypocotyl cross-sections from tiled high-resolution images and extracted their information content using custom high-throughput image processing and segmentation. Coupled with an automated cell type recognition algorithm, it allows precise quantitative characterization of vascular development and reveals developmental patterns that were not evident from visual inspection, for example the steady interspace distance of the phloem poles. Further analyses indicated a change in growth anisotropy of cambial and phloem cells, which appeared in phase with the expansion of xylem. Combining genetic tools and computational modeling, we showed that the reorientation of growth anisotropy axis of peripheral tissue layers only occurs when the growth rate of central tissue is higher than the peripheral one. This was confirmed by the calculation of the ratio of the growth rate xylem to phloem throughout secondary growth. High ratios are indeed observed and concomitant with the homogenization of cambium anisotropy. These results suggest a self-organization mechanism, promoted by a gradient of division in the cambium that generates a pattern of mechanical constraints. This, in turn, reorients the growth anisotropy of peripheral tissues to sustain the secondary growth.
Resumo:
RESUME - FRANÇAISRésuméDans ce travail de thèse, l'importance de la pharmacogénétique des traitements antiviraux a été évaluée en déterminant, au moyen de trois différentes approches, l'impact de variations génétiques sur la pharmacocinétique de deux traitements antirétroviraux (à savoir l'efavirenz et le lopinavir) ainsi que sur la capacité de pouvoir éliminer le virus de l'hépatite C de façon naturelle ou suite à un traitement médicamenteux.L'influence des variations génétiques sur les taux plasmatiques de l'efavirenz et de ses métabolites primaires a été évaluée par l'analyse d'un seul gène candidat : le cytochrome P450 (CYP) 2A6, impliqué dans une voie métabolique accessoire de l'efavirenz. Cette étude a permis de démontrer que le génotype du CYP2A6 devient cliniquement déterminant en l'absence de fonction du CYP2B6, impliqué dans la voie métabolique principale, et que la perte simultanée des voies métaboliques principales et accessoires entraine une augmen¬tation du risque d'interruption du traitement, soulignant la valeur prédictive du génotypage.L'influence de la génétique sur la clairance du lopinavir a été évaluée par l'analyse à grande échelle de gènes candidats, à savoir les gènes potentiellement impliqués dans l'absorption, le métabolisme, la distribution et l'élimination d'un médicament. Cette étude a permis l'identification de 4 polymorphismes, dans des transporteurs et des enzymes métaboliques, associés à la clairance du lopinavir et expliquant 5% de la variabilité inter¬individuelle de ce phénotype.L'influence de la génétique sur la capacité d'éliminer le virus de l'hépatite C, de façon naturelle ou à la suite d'un traitement, a été évaluée par l'analyse du génome entier. Cette étude a permis l'identification d'un polymorphisme situé à proximité de l'interféron-X3. Quatre variations génétiques potentiellement causales ont ensuite pu être identifiées par reséquencage. Finalement, la contribution nette de ce gène sur l'élimination du virus a pu être évaluée dans une cohorte infectée par une seule et même source, permettant ainsi de contrôler l'effet de la diversité virale, du genre et de la présence de co-infections.Cette thèse a permis de mettre en évidence les diverses méthodes disponibles pour la recherche en pharmacogénétique, ainsi que l'importance du reséquencage pour l'identification de variations génétiques causales.SUMMARY - ENGLISHSummaryIn this thesis work the relevance of pharmacogenetics of antiviral treatment has been assessed by investigating, through three different approaches, the impact of host genetic variation on antiretroviral drug disposition (namely efavirenz and lopinavir) and on natural or treatment-induced clearance of hepatitis C virus.The influence of host genetic variation on efavirenz and its primary metabolite plasma levels was assessed by single candidate gene approach, through comprehensive analysis of cytochrome P450 (CYP) 2A6 - involved in efavirenz accessory metabolic pathway. The study could demonstrate that CYP2A6 genotype became increasingly relevant in the setting of limited CYP2B6 function - involved in efavirenz main metabolic pathway - and that individuals with both main and accessory metabolic pathways impaired were at higher risk for treatment discontinuation, overall emphasizing the predictive power of genotyping.The influence of host genetic variation on lopinavir clearance was assessed by large scale candidate gene approach, through analysis of genes involved in the absorption, distribution, metabolism and elimination. The study identified four genetic variants in drug transporters and metabolizing enzymes that explained 5% of the interindividual variability in lopinavir clearance.The influence of host genetic variation on hepatitis C virus (HCV) natural or treatment- induced clearance was assessed through genome-wide association study approach. This study identified an intergenic polymorphism, part of a linkage disequilibrium block encompassing the interferon-3 gene, as highly associated with treatment-induced and spontaneous HCV clearance. Resequencing and recombinant mapping lead to the identification of four potentially causal genetic variants. Finally, we could assess the net contribution of genetic variants in interferon-3 to clearance by controlling for viral diversity, gender and co-infection status in a single source infected cohort.This thesis highlights the various genetic tools available to pharmacogenetic discovery (candidate gene, pathway or and genome-wide approaches), and the importance of resequencing for mapping of causal variants.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.