178 resultados para PIT tapes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Abstract Cervical cancer is thought to be the consequence of infection by human papillomaviruses (HPV). In the majority of cases, DNA from HPV type 16 (HPV16) is found in malignant cervical lesions. The initial steps leading to transformation of an infected cell are not clearly understood but in most cases, disruption and integration of the episomal viral DNA must take place. As a consequence, the E2 and E4 genes are usually not expressed whereas the E6 and E7 oncogenes are highly expressed. However, in a normal infection in which the viral DNA is maintained as an episome, all viral genes are expressed. The pattern according to which the viral proteins are made, and therefore the life cycle of the virus, is tightly linked to the differentiation process of the host keratinocyte. The study of the viral oncogenes E6 and E7 has revealed crucial functions in the process of malignant transformation such as degradation of the p53 tumor suppressor protein, deregulation of the Retinoblastoma protein pathway and activation of the telomerase ribonucleoprotein. All these steps are necessary for cancerous lesions to develop. However, the loss of the E2 gene product seems to be necessary for sufficient expression of E6 and E7 in order to achieve such effects. In normal infections, the E4 protein is made abundantly in the later stages of the viral life cycle. Though extensive amounts of work have been carried out to define the function of E4, it still remains unclear. In this study, several approaches have been used to try and determine the functions of E4. First, a cell-penetrating fusion protein was designed and produced in order to circumvent the chronic difficulties of expressing E4 in mammalian cells. Unfortunately, this approach was not successful due to precipitation of the purified fusion protein. Second, the observation that E4 accumulates in cells having modified their adhesion properties led to the hypothesis that E4 might be involved in the differentiation process of keratinocytes. Preliminary results suggest that E4 triggers differentiation. Last, as E4 has been reported to collapse the cytokeratin network of keratinocytes, a direct approach using atomic force microscopy has allowed us to test the potential modification of mechanical properties of cells harboring reorganized cytokeratin networks. If so, a potential role for E4 in viral particle release could be hypothesized. 2. Résumé Il a été établi que le cancer du col de l'utérus se développe essentiellement à la suite d'une infection par le virus du papillome humain (HPV). Dans la majorité des cas analysés, de l'ADN du HPV de type 16 (HPV16) est détecté. Les étapes initiales de la transformation d'une cellule infectée sont mal connues mais il semble qu'une rupture du génome viral, normalement épisomal, suivi d'une intégration dans le génome de la cellule hôte soient des étapes nécessaires dans la plupart des cas. Or il semble qu'il y ait une sélection pour les cas où l'expression des oncogènes viraux E6 et E7 soit favorisée alors que l'expression des gènes E2 et E4 est en général impossible. Par contre, dans une infection dite normale où le génome viral n'est pas rompu, il n'y pas développement de cancer et tous les gènes viraux sont exprimés. L'ordre dans lequel les protéines virales sont produites, et donc le cycle de réplication du virus, est intimement lié au processus de différentiation de la cellule hôte. L'étude des protéines oncogènes E6 et E7 a révélé des fonctions clés dans le processus de transformation des cellules infectées telles que la dégradation du suppresseur de tumeur p53, la dérégulation de la voie de signalisation Rb ainsi que l'activation de la télomérase. Toutes ces activités sont nécessaires au développement de lésions cancéreuses. Toutefois, il semble que l'expression du gène E2 doit être empêchée afin que suffisamment des protéines E6 et E7 soient produites. Lorsque le gène E2 est exprimé, et donc lorsque le génome viral n'est pas rompu, les protéines E6 et E7 n'entraînent pas de telles conséquences. Le gène E4, qui se trouve dans la séquence codante de E2, a aussi besoin d'un génome viral intact pour être exprimé. Dans une infection normale, le gène E4 est exprimé abondamment dans les dernières étapes de la réplication du virus. Bien que de nombreuses études aient été menées afin de déterminer la fonction virale à E4, aucun résultat n'apparaît évident. Dans ce travail, plusieurs approches ont été utilisées afin d'adresser cette question. Premièrement, une protéine de fusion TAT-E4 a été produite et purifiée. Cette protéine, pouvant entrer dans les cellules vivantes par diffusion au travers de la membrane plasmique, aurait permis d'éviter ainsi les problèmes chroniques rencontrés lors de l'expression de E4 dans les cellules mammifères. Malheureusement, cette stratégie n'a pas pu être utilisée à cause de la précipitation de la protéine purifiée. Ensuite, l'observation que E4 s'accumule dans les cellules ayant modifié leurs propriétés d'adhésion a suggéré que E4 pourrait être impliqué dans le procédé de différentiation des kératinocytes. Des résultats préliminaires supportent cette possibilité. Enfin, il a été montré que E4 pouvait induire une réorganisation du réseau des cytokératines. Une approche directe utilisant le microscope à force atomique nous a ainsi permis de tester une potentielle modification des propriétés mécaniques de cellules ayant modifié leur réseau de cytokératines en présence de E4. Si tel est le cas, un rôle dans la libération de particules virales peut être proposé pour E4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos : De nombreuses études ont été réalisées sur les inégalités factuelles des structures sociales, comprenant aussi bien l'aspect statique de la stratification sociale que l'aspect dynamique de la mobilité sociale (voir par exemple Levy et Suter, 2002, Lemel, 1991, Erikson et Goldthorpe, 1992, Esping-Andersen, 1993). Par contre, les recherches portant sur la perception, par les acteurs, des inégalités des structures sociales sont en comparaison peu nombreuses en ce qui concerne les représentations de la stratification sociale (Levy et al., 1997, Lorenzi-Cioldi et Joye, 1988, Coxon, Davies et Jones, 1986, Zwicky, 1989) et presque inexistantes dans le cas des représentations de la mobilité sociale (Attias-Donfut et Wolff, 2001). La présente recherche se propose d'étudier simultanément la perception de la stratification sociale et de la mobilité sociale intragénérationnelle par les acteurs en intégrant le caractère multidimensionnel du système d'inégalités. Elle défend la thèse fondamentale d'une double origine des inégalités perçues, qui participeraient à la fois d'aspects macrosociaux et mésosociaux de la stratification sociale, les premiers portant sur la structure sociale dans son ensemble, les seconds sur une partie seulement de celle-ci (voir par exemple Kelley et Evans, 1995, Levy, 2002). Dans une perspective systémique, on se trouverait, à côté de la structure macrosociale, en présence de sous-systèmes mésosociaux, de portée restreinte. La perception de la stratification sociale dépendrait alors du cadre de référence adopté par les acteurs, selon qu'il porte sur le système dans son ensemble ou sur un sous-système. Un des objectifs de cette recherche sera d'établir que la pertinence des cadres de référence macrosocial et mésosocial est étroitement liée à la lecture statique ou dynamique de la stratification sociale. Dans le cas statique, celui du positionnement, les représentations sociales s'articuleraient autour des inégalités macrosociales, tenant compte du système dans son ensemble, tandis que dans le cas dynamique, celui de la mobilité ou de l'évolution du positionnement, les inégalités mésosociales, propres aux sous-systèmes, l'emporteraient. D'une part, la perception du positionnement social dépendrait de l'insertion de l'acteur dans la structure sociale, comprise dans son ensemble, et reproduirait les inégalités factuelles macrosociales, telles qu'elles apparaissent par exemple au travers des catégories socioprofessionnelles. D'autre part, la perception du parcours de mobilité ? conservation, amélioration ou dégradation de la position perçue ? resterait indépendante des changements macrosociaux de l'insertion, mais relèverait avant tout de déterminants propres à l'environnement social immédiat de l'acteur. L'environnement de l'acteur, en tant qu'il s'inscrit dans une partie restreinte de la structure sociale, permettrait de saisir les inégalités mésosociales. L'expérience, par les acteurs, de ces deux aspects de la structure sociale conduirait à la mise en place de deux types d'inégalités perçues irréductibles les unes aux autres dans la mesure où le système macrosocial et les sous-systèmes mésosociaux présentent une certaine autonomie. Cette autonomie peut être vue d'une part en rapport avec l'importance propre des organisations de nature mésosociale - en particulier les entreprises - dans les sociétés contemporaines (Sainsaulieu et Segrestin, 1986, Perrow, 1991), d'autre part en relation avec l'hétérogénéité que ces dernières induisent en termes de segmentation du marché de l'emploi (Baron et Bielby, 1980). Dans une large mesure, les organisations intermédiaires se distinguent ainsi de la structure sociale prise dans son ensemble: plutôt que de reproduire les inégalités macrosociales, elles constitueraient des systèmes d'inégalités indépendants, notamment quant à la régulation des parcours professionnels (Bertaux, 1977). Ainsi, la perception de la structure sociale ne se réduirait pas aux seuls facteurs macrosociaux, mais dépendrait, en l'absence d'un modèle d'organisation mésosocial unique, de la diversité des structures intermédiaires. On peut d'ailleurs supposer que la prise en compte des organisations mésosociales est susceptible de pallier la faiblesse des explications classiques en termes macrosociologiques, relevées par les tenants des thèses avançant le déclin du pouvoir structurant de la stratification sociale ou du travail (voir Levy, 2002 et, sur les thèses citées, par exemple Beck, 1983, Matthes, 1983, Berger et Hradil, 1990, Clark et Lipset, 1991). En effet, dans la mesure où l'acteur serait plus souvent confronté aux structures de son environnement social immédiat plutôt qu'à la structure sociale dans son ensemble, la perception pourrait dépendre en premier lieu de facteurs mésosociaux, susceptibles de supplanter ou, à tout le moins, d'atténuer l'effet des facteurs macrosociaux. Une telle approche permet de conserver une lecture structurelle de la perception du positionnement en enrichissant la relation classique entre structure macrosociale et acteur d'une composante mésosociologique, évitant ainsi le recours à une explication culturelle ad hoc Dès lors, la principale question de recherche s'adresse au lien entre structure sociale factuelle et structure sociale perçue. Dans la perspective statique du positionnement, l'effet des structures mésosociales serait tel qu'il se superposerait à la détermination macrosociale de la perception, sans pour autant subvertir la hiérarchie des positions induites par les catégories socioprofessionnelles. Dans la perspective dynamique, en revanche, les changements liés à l'insertion mésosociale peuvent l'emporter sur l'immobilité ou la mobilité définies en termes macrosociologiques. D'une part, en supposant que les plans mésosocial et macrosocial agissent de manière plus ou moins autonome sur la perception, l'amélioration, la conservation ou la dégradation de la position ne coïncide pas nécessairement selon ces deux plans. D'autre part, l'ampleur de la mobilité perçue due à l'écart entre le positionnement mésosocial passé et actuel peut dépasser celle qui est liée à la mobilité macrosociale, surtout si cette dernière est de faible distance. Le passage de la perspective statique à la perspective dynamique peut dès lors être vu comme un moyen de faire apparaître le rôle fondamental joué par les structures mésosociales au sein de la stratification sociale. L'orientation de la recherche consistera d'abord à mettre en évidence, par-delà les différences macrosociales des représentations des positions professionnelles, les variations de la perception au sein des catégories socioprofessionnelles. Ces étapes montreront, à différents égards, que les représentations se singularisent en relation avec l'insertion mésosociale de l'acteur. On verra également que la perception de la mobilité échappe à une détermination macrosociale, mais qu'elle présente une cohérence mésosociale certaine. Ces résultats, insistant sur la prise en compte des structures mésosociales, nous amèneront enfin à un examen systématique des déterminants de la perception du positionnement et du parcours de mobilité, mettant en oeuvre une variété de facteurs explicatifs dépassant un cadre d'analyse purement structurel. La recherche débute par une discussion de la place qui revient à une étude des représentations du parcours professionnel dans le champ des travaux sur la stratification et la mobilité sociale, en particulier sa justification théorique et empirique, et la formulation des hypothèses de recherche (chapitre 1). Elle se poursuit par la présentation de l'échantillonnage et des variables utilisées (chapitre 2). Le traitement des hypothèses de recherche fait l'objet de trois chapitres distincts. Chaque hypothèse s'accompagne, en plus des développements liés à son examen, d'une introduction et d'une conclusion spécifiques. Le premier (chapitre 3) porte sur la perception de la stratification sociale des positions professionnelles, le second (chapitre 4) sur la perception du parcours de mobilité et le troisième (chapitre 5) sur les déterminants sociologiques de la perception des inégalités liées au positionnement et à la mobilité professionnels. Enfin, au traitement des hypothèses fait suite la conclusion de la recherche (chapitre 6).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé pour large public Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne Lors de la prise d'un médicament, celui-ci va passer par différentes étapes que sont l'absorption, la distribution, le métabolisme et enfin l'élimination. Ces quatre étapes sont regroupées sous le nom de pharmacocinétique. A noter que ces quatre paramètres sont dynamiques et en constante évolution. Durant cette thèse, nous avons investigué différents aspects de la pharmacocinétique, tout d'abord par une revue de la littérature sur la glycoprotéine-P (Pgp). Récemment découverte, cette protéine de membrane est située aux endroits stratégiques de l'organisme comme la barrière hématoencéphalée, le placenta ou les intestins où elle influencera l'entrée de différentes substances, en particulier les médicaments. La Pgp serait impliquée dans les phénomènes de résistances aux agents thérapeutiques en oncologie. La Pgp influence donc l'absorption des médicaments, et son impact en clinique, en termes d'efficacité de traitement et de toxicité prend chaque jour plus d'importance. Ensuite nous avons mis au point une méthode d'analyse quantitative d'un antidépresseur d'une nouvelle génération : la mirtazapine (Remeron®). La nouveauté réside dans la façon dont la mirtazapine interagit avec les neurotransmetteurs impliqués dans la dépression que sont la sérotonine et la noradrénaline. Cette méthode utilise la chromatographie liquide pour séparer la mirtazapine de ses principaux métabolites dans le sang. La spectrométrie de masse est utilisée pour les détecter et les quantifier. Les métabolites sont des substances issues de réactions chimiques entre la substance mère, la mirtazapine, et généralement des enzymes hépatiques, dans le but de rendre cette substance plus soluble en vue de son élimination. Cette méthode permet de quantifier la mirtazapine et ses métabolites dans le sang de patients traités et de déterminer la variation des taux plasmatiques chez ces patients. Puis nous avons étudié le métabolisme d'un autre antidépresseur, le citalopram, qui a un métabolisme complexe. Le citalopram est un racémate, c'est-à-dire qu'il existe sous forme de deux entités chimiques (R-(-) et S-(+) citalopram) qui ont le même nombre d'éléments mais arrangés différemment dans l'espace. La voie métabolique cérébrale du citalopram est sous le contrôle d'une enzyme, la monoamine oxydase (MAO), conduisant à une forme acide du citalopram (l'acide propionique du citalopram). La MAO existe sous deux formes : MAO-A et MAO-B. Nous avons utilisé des souris déficientes d'un gène, celui de la MAO-A, pour mieux en comprendre le métabolisme en les comparants à des souris sauvages (sans déficience de ce gène). Nous avons utilisé le citalopram et deux de ses métabolites (le déméthylcitaloprarn et le didéméthyícitalopram) comme substrats pour tester la formation in vitro de l'acide propionique du citalopram. Nos résultats montrent que la MAO-A favorise la formation de l'entité R-(-) et présente une plus grande affinité pour le citalopram, tandis que la MAO-B métabolise préférentiellement l'entité S-(+) et a une plus grande affinité pour les deux métabolites déméthylés. De plus, la déficience en MAO-A est partiellement compensée parla MAO-B chez les souris déficientes du gène de la MAO-A. Enfin, nous avons étudié une deuxième voie métabolique du citalopram qui s'est avérée toxique chez le chien Beagle. Celle-ci est catalysée par une autre famille d'enzymes, les cytochromes P-450, et mène aux métabolites déméthylés et didéméthylés du citalopram. Nous avons utilisé des tissus hépatiques de chiens Beagle. Plusieurs cytochromes P-450 sont impliqués dans le métabolisme du citalopram menant à sa forme déméthylée, ceci tant chez l'homme que chez le chien. Par contre, dans le métabolisme de la forme déméthylée menant à 1a forme didéméthylée, un seul cytochrome P-450 serait impliqué chez l'Homme, tandis qu'ils seraient plusieurs chez le chien. L'activité enzymatique produisant la forme didéméthylée est beaucoup plus importante chez le chien comparé à l'homme. Cette observation soutien l'hypothèse que des taux élevés de la forme didéméthylée participent à la toxicité spécifique du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant que les enzymes peuvent être stimulées ou inhibées, il importe de pouvoir suivre au plus prés les taux plasmatiques des différents psychotropes et de leurs métabolites. Résumé Unité de Biochimie et Psychopharmacologie Clinique, Centre de neurosciences Psychiatrique, Département de Psychiatrie Adulte, Faculté de Biologie et de Médecine, Université de Lausanne La plupart des médicaments subissent une transformation enzymatique dans l'organisme. Les substances issues de cette métabolisation ne sont pas toujours dotées d'une activité pharmacologique. Il s'est avéré par conséquent indispensable de suivre les taux plasmatiques d'une substance et de ses métabolites et d'établir ou non l'existence d'une relation avec l'effet clinique observé. Ce concept nommé « therapeutic drag monitoring » (TDM) est particulièrement utile en psychiatrie ou un manque de compliance des patients est fréquemment observé. Les médicaments psychotropes ont un métabolisme principalement hépatique (cytochromes P-450) et parfois cérébral (monoamines oxydases), comme pour le citalopram par exemple. Une méthode stéréosélective de chromatographie liquide couplée à la spectrométrie de masse a été développée pour analyser les énantiomères R-(-) et S-(+) d'un antidépresseur agissant sur les récepteurs noradrénergiques et sérotoninergiques, la mirtazapine et de ses métabolites déméthylmirtazapine et 8-hydroxymirtazapine. Les données préliminaires obtenues dans les plasmas dosés suggèrent que les concentrations de R-(-)-mirtazapine sont plus élevées que celles de S-(+)-mirtazapine, à l'exception des patients qui auraient comme co-médication des inhibiteurs du CYP2D6, telle que la fluoxétine ou la thioridazine. Il y a une enantiosélectivité du métabolisme de la mirtazapine. En particulier pour la 8-hydroxymirtazapine qui est glucuroconjuguée et pour laquelle le ratio S/R varie considérablement. Cette méthode analytique présente l'avantage d'être utilisable pour le dosage stéréosélectif de la mirtazapine et de ses métabolites dans le plasma de patients ayant d'autres substances en co-médication. La glycoprotéine P fonctionne comme une pompe transmembranaire transportant les xénobiotiques depuis le milieu intracellulaire vers le milieu extracellulaire. Son induction et son inhibition, bien que moins étudiées que pour les cytochromes P-450, ont des implications cliniques importantes en termes d'efficacité de traitement et de toxicité. Cette glycoprotéine P a fait l'objet d'une recherche bibliographique. Nous avons étudié le métabolisme du citalopram, un antidépresseur de la classe des inhibiteurs spécifiques de la recapture de la sérotonine chez la souris et chez le chien. Cette substance subit un métabolisme complexe. La voie de métabolisation conduisant à la formation de l'acide propionique du citalopram, catalysée par les monoamines oxydases, a été étudiée in vitro dans les mitochondries cérébrales chez la souris déficiente du gène de la MAO-A (Tg8). La monoamine oxydase A catalyse la formation de l'énantiomère R-(-) et présente une plus grande affinité pour les amines tertiaires, tandis que la monoamine oxydase B favorise la formation de la forme S-(+) et a une affinité plus marquée pour les amines secondaires et primaires. L'étude du citalopram chez la souris Tg8 adulte a montré que la monoamine oxydase B compense la déficience de la monoamine oxydase A chez ces souris génétiquement modifiées. Une autre voie de métabolisation du citalopram conduisant à la formation de didéméthylcitalopram, catalysée par les cytochromes P-450, a été étudiée in vitro dans des microsomes hépatiques de chiens Beagle. Nos études ont montré que les cinétiques de N-déméthylation du citalopram sont biphasiques chez le chien. Les orthologues canins impliqués dans la première N-déméthylation semblent être identiques aux cytochromes P-450 humains. Par contre, dans la deuxième Ndéméthylation, un seul cytochrome P-450 semble être impliqué chez l'homme (CYP2D6), tandis qu'on retrouve jusqu'à cinq orthologues chez le chien. Le CYP2D15, orthologue canin du CYP2D6, est majoritairement impliqué. De plus, l'activité enzymatique, reflétée par les clairances intrinsèques, dans la première N-déméthylation est jusqu'à 45 fois plus élevée chez le chien comparé à l'homme. Ces différentes observations soutiennent l'hypothèse que des taux élevés de didéméthylcitalopram sont responsables de la toxicité du citalopram chez le chien. Nous pouvons conclure que plusieurs famille d'enzymes sont impliquées tant au niveau cérébral qu'hépatique dans la métabolisation de médicaments psychotropes. Sachant -que les enzymes peuvent être induits ou inhibés, il importe de pouvoir suivre au plus près les taux plasmatiques des différents psychotropes et de leurs métabolites. Summary Most of the drugs are metabolized in the organism. Substances issued from this metabolic activity do not always show a pharmacological activity. Therefore, it is necessary to monitor plasmatic levels of drugs and their metabolites, and establish the relationship with the clinical effect. This concept named therapeutic drug monitoring is very useful in psychiatry where lack of compliance is commonly observed. Antidepressants are mainly metabolized in the liver (cytochrome P-450) and sometimes in the brain (monoamine oxidase) like the citalopram, for exemple. A LC-MS method was developed, which allows the simultaneous analysis of R-(-) and S-(+) enantiomers of mirtazapine, an antidepressant acting specifically on noradrenergic and serotonergic receptors, and its metabolites demethylmirtazapine and 8-hydroxymirtazapine in plasma of mirtazapine treated patients. Preliminary data obtained suggested that R-(-) mirtazapine concentrations were higher than those of S-(+) mirtazapine, except in patients comedicated with CYP2D6 inhibitors such as fluoxetine or thioridazine. There is an enantioselectivity in the metabolism of mirtazapine. In particular for the 8-hydroxymirtazapine, which is glucuroconjugated and S/R ratio varies considerably. Therefore this method seems to be suitable for the stereoselective assay of mirtazapine and its metabolites in plasma of patients comedicated with mirtazapine and other drugs for routine and research purposes. P-glycoprotein is working as an efflux transporter of xenobiotics from intracellular to extracellular environment. Its induction or inhibition, although less studied than cytochrome P-450, has huge clinical implications in terms of treatment efficacy and toxicity. An extensive literature search on P-glycoprotein was performed as part of this thesis. The study of citalopram metabolism, an antidepressant belonging to the class of selective serotonin reuptake inhibitors. This substance undergoes a complex metabolism. First metabolization route leading to citalopram propionic acid, catalyzed by monoamine oxidase was studied in vitro in mice brain mitochondria. Monoamine oxidase A catalyzed the formation of R-(-) enantiomer and showed greater affinity for tertiary amines, whereas monoamine oxidase B triggered the formation of S-(+) enantiomer and demonstrated higher affinity for primary and secondary amines. citalopram evaluation in adult Tg8 mice showed that monoamine oxidase B compensated monoamine oxidase A deficiency in those genetically transformed mice. The second metabolization route of citalopram leading to didemethylcitalopram and catalyzed by cytochrome P-450 was studied in vitro in Beagle dog's livers. Our results showed that citalopram N-demethylation kinetics are biphasic in dogs. Canine orthologs involved in the first N-demethylation seemed to be identical to human cytochromes P-450. However, in the second N-demethylation only one cytochrome P-450 seemed to be involved in human (CYP2D6), whereas up to five canine orthologs were found in dogs. CYP2D15 canine ortholog of CYP2D6 was mainly involved. In addition, enzymatic activity reflected by intrinsic clearance in the first N-demethylation was up to 45 fold higher in dogs compared to humans. Those observations support the assumption that elevated rates of didemethylcitalopram are responsible for citalopram toxicity in dogs. We can conclude that several enzymes groups are involved in the brain, as well as in the liver, in antidepressant metabolization. Knowing that enzymes may be induced or inhibited, it makes sense to closely monitor plasmatic levels of antidepressants and their metabolites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Circadian clocks, present in organisms leaving in a rhythmic environment, constitute the mechanisms allowing anticipation and adaptation of behavior and physiology in response to these environmental variations. As a consequence, most aspects of metabolism and behavior are under the control of this circadian clock. At a molecular level, in all the studied species, the rhythmic expression of the genes involved are generated by interconnected transcriptional and translational feedback loops. In mammals, the heterodimer composed of BMAL1 and its partners CLOCK or NPAS2 constitutes a transcriptional activator regulating transcription of Per and Cry genes. These genes encode for repressors of the activity of BMAL1:CLOCK or BMAL1: NPAS2 heterodimers, thus closing a negative feedback loop that generates rhythms of approximately 24 hours. The aim of my doctoral work consisted in the investigation of the role of circadian clock in the regulation of different aspects of mouse metabolism through the rhythmic activation of signaling pathways. First, we showed that one way how the circadian clock exerts its function as an oscillator is through the regulation of mRNA translation. Indeed, we present evidence showing that circadian clock influences the temporal translation of a subset of mRNAs involved in ribosome biogenesis by controlling the transcription of translation initiation factors as well as the clock-dependent rhythmic activation of signaling pathways involved in their regulation. Moreover, the circadian oscillator regulates the transcription of ribosomal protein mRNAs and ribosomal RNAs. Thus the circadian clock exerts a major role in coordinating transcription and translation steps underlying ribosome biogenesis. In the second part, we showed the involvement of the circadian clock in lipid metabolism. Indeed, the three PAR bZip transcription factors DBP, TEF and HLF, are regulated by the molecular clock and play key roles in the control of lipid metabolism. Here we present evidence concerning the circadian expression and activity of PPARα via the circadian transcription of genes involved in the release of fatty acids, natural ligands of PPARα. It leads to the rhythmic activation of PPARα itself which could then play its role in the transcription of genes encoding proteins involved in lipid, cholesterol and glucose metabolism. In addition, we considered the possible role of lipid transporters, here SCP2, in the modulation of circadian activation of signaling pathways such as TORC1, PPARα and SREBP, linked to metabolism, and its feedback on the circadian clock. In the last part of this work, we studied the effects of these circadian clock-orchestrated pathways in physiology, as clock disruptions have been shown to be linked to metabolic disorders. We performed in vivo experiments on genetically and high-fat induced obese mice devoid of functional circadian clock. The results obtained showed that clock disruption leads to impaired triglycerides and glucose homeostasis in addition to insulin secretion and sensitivity. -- Les rythmes circadiens, présents chez tout organisme vivant dans un environnement rythmique, constituent l'ensemble de mécanismes permettant des réponses comportementales et physiologiques anticipées et adaptées aux variations environnementales. De ce fait, la plupart des aspects liés au métabolisme et au comportement de ces organismes apparaissent être sous le contrôle de l'horloge circadienne contrôlant ces rythmes. Au niveau moléculaire, dans toutes les espèces étudiées, l'expression rythmique de gènes impliqués sont générés par l'interconnexion de boucles de contrôle transcriptionnelles et traductionnelles. Chez les mammifères, l'hétérodimère composé de BMAL1 et de ses partenaires CLOCK ou NPAS2 constitue un activateur transcriptionnel régulant la transcription des gènes Per et Cry. Ces gènes codent pour des répresseurs de l'activité des hétérodimères BMAL1:CLOCK ou BMAL1:NPAS2. Cela a pour effet de fermer la boucle négative, générant ainsi des rythmes d'environ 24 heures. Le but de mon travail de thèse a consisté en l'investigation du rôle de l'horloge circadienne dans la régulation de certains aspects du métabolisme chez la souris via la régulation de l'activation rythmique des voies de signalisation. Nous avons tout d'abord montré que l'horloge circadienne exerce sa fonction d'oscillateur notamment au niveau de la régulation de la traduction des ARNm. En effet, nous présentons des preuves montrant que l'horloge circadienne influence la traduction temporelle d'un groupe d'ARNm impliqués dans la biogénèse des ribosomes en contrôlant la transcription de facteurs d'initiation de la traduction ainsi que l'activation rythmique des voies de signalisation qui sont impliquées dans leur régulation. De plus, l'oscillateur circadien régule la transcription d'ARNm codant pour les protéines ribosomales et d'ARN ribosomaux. De cette façon, l'horloge circadienne exerce un rôle majeur dans la coordination des étapes de transcription et traduction permettant la biogénèse des ribosomes. Dans la deuxième partie, nous montrons les implications de l'horloge circadienne dans le métabolisme des lipides. En effet, DBP, TEF et HLF, trois facteurs de transcription de la famille des PAR bZip qui sont régulés par l'horloge circadienne, jouent un rôle clé dans le contrôle du métabolisme des lipides par l'horloge circadienne. Nous apportons ici des preuves concernant l'expression et l'activité rythmiques de PPARα via la transcription circadienne de gènes impliqués dans le relargage d'acides gras, ligands naturels de PPARα, conduisant à l'activation circadienne de PPARα lui-même, pouvant ainsi jouer son rôle de facteur de transcription de gènes codant pour des protéines impliquées dans le métabolisme des lipides, du cholestérol et du glucose. De plus, nous nous sommes penchés sur le rôle possible de transporteurs de lipides, ici SCP2, dans la modulation de l'activation circadienne de voies de signalisation, telles que TORC1, PPARα et SREBP, qui sont liées au métabolisme, ainsi que son impact sur l'horloge elle-même. Dans la dernière partie de ce travail, nous avons étudié les effets de l'activation de ces voies de signalisation régulées par l'horloge circadienne dans le contexte physiologique puisqu'il a été montré que la perturbation de l'horloge pouvait être associée à des désordres métaboliques. Pour ce faire, nous avons fait des expériences in vivo sur des souris déficientes pour l'horloge moléculaire pour lesquelles l'obésité est induite génétiquement ou induite par la nourriture riche en lipides. Les résultats que nous obtenons montrent des dérèglements au niveau de l'homéostasie des triglycérides et du glucose ainsi que sur l'expression et la réponse à l'insuline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Isotope ratio mass spectrometry (IRMS) has been used in numerous fields of forensic science in a source inference perspective. This review compiles the studies published on the application of isotope ratio mass spectrometry (IRMS) to the traditional fields of forensic science so far. It completes the review of Benson et al. [1] and synthesises the extent of knowledge already gathered in the following fields: illicit drugs, flammable liquids, human provenancing, microtraces, explosives and other specific materials (packaging tapes, safety matches, plastics, etc.). For each field, a discussion assesses the state of science and highlights the relevance of the information in a forensic context. Through the different discussions which mark out the review, the potential and limitations of IRMS, as well as the needs and challenges of future studies are emphasized. The paper elicits the various dimensions of the source which can be obtained from the isotope information and demonstrates the transversal nature of IRMS as a tool for source inference.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie infrarouge (FTIR) est une technique de choix dans l'analyse des peintures en spray (traces ou bonbonnes de référence), grâce à son fort pouvoir discriminant, sa sensibilité, et ses nombreuses possibilités d'échantillonnage. La comparaison des spectres obtenus est aujourd'hui principalement faite visuellement, mais cette procédure présente des limitations telles que la subjectivité de la prise de décision car celle-ci dépend de l'expérience et de la formation suivie par l'expert. De ce fait, de faibles différences d'intensités relatives entre deux pics peuvent être perçues différemment par des experts, même au sein d'un même laboratoire. Lorsqu'il s'agit de justifier ces différences, certains les expliqueront par la méthode analytique utilisée, alors que d'autres estimeront plutôt qu'il s'agit d'une variabilité intrinsèque à la peinture et/ou à son vécu (par exemple homogénéité, sprayage, ou dégradation). Ce travail propose d'étudier statistiquement les différentes sources de variabilité observables dans les spectres infrarouges, de les identifier, de les comprendre et tenter de les minimiser. Le deuxième objectif principal est de proposer une procédure de comparaison des spectres qui soit davantage transparente et permette d'obtenir des réponses reproductibles indépendamment des experts interrogés. La première partie du travail traite de l'optimisation de la mesure infrarouge et des principaux paramètres analytiques. Les conditions nécessaires afin d'obtenir des spectres reproductibles et minimisant la variation au sein d'un même échantillon (intra-variabilité) sont présentées. Par la suite une procédure de correction des spectres est proposée au moyen de prétraitements et de sélections de variables, afin de minimiser les erreurs systématiques et aléatoires restantes, et de maximiser l'information chimique pertinente. La seconde partie présente une étude de marché effectuée sur 74 bonbonnes de peintures en spray représentatives du marché suisse. Les capacités de discrimination de la méthode FTIR au niveau de la marque et du modèle sont évaluées au moyen d'une procédure visuelle, et comparées à diverses procédures statistiques. Les limites inférieures de discrimination sont testées sur des peintures de marques et modèles identiques mais provenant de différents lots de production. Les résultats ont montré que la composition en pigments était particulièrement discriminante, à cause des étapes de corrections et d'ajustement de la couleur subies lors de la production. Les particularités associées aux peintures en spray présentes sous forme de traces (graffitis, gouttelettes) ont également été testées. Trois éléments sont mis en évidence et leur influence sur le spectre infrarouge résultant testée : 1) le temps minimum de secouage nécessaire afin d'obtenir une homogénéité suffisante de la peinture et, en conséquence, de la surface peinte, 2) la dégradation initiée par le rayonnement ultra- violet en extérieur, et 3) la contamination provenant du support lors du prélèvement. Finalement une étude de population a été réalisée sur 35 graffitis de la région lausannoise et les résultats comparés à l'étude de marché des bonbonnes en spray. La dernière partie de ce travail s'est concentrée sur l'étape de prise de décision lors de la comparaison de spectres deux-à-deux, en essayant premièrement de comprendre la pratique actuelle au sein des laboratoires au moyen d'un questionnaire, puis de proposer une méthode statistique de comparaison permettant d'améliorer l'objectivité et la transparence lors de la prise de décision. Une méthode de comparaison basée sur la corrélation entre les spectres est proposée, et ensuite combinée à une évaluation Bayesienne de l'élément de preuve au niveau de la source et au niveau de l'activité. Finalement des exemples pratiques sont présentés et la méthodologie est discutée afin de définir le rôle précis de l'expert et des statistiques dans la procédure globale d'analyse des peintures. -- Infrared spectroscopy (FTIR) is a technique of choice for analyzing spray paint speciments (i.e. traces) and reference samples (i.e. cans seized from suspects) due to its high discriminating power, sensitivity and sampling possibilities. The comparison of the spectra is currently carried out visually, but this procedure has limitations such as the subjectivity in the decision due to its dependency on the experience and training of the expert. This implies that small differences in the relative intensity of two peaks can be perceived differently by experts, even between analysts working in the same laboratory. When it comes to justifying these differences, some will explain them by the analytical technique, while others will estimate that the observed differences are mostly due to an intrinsic variability from the paint sample and/or its acquired characteristics (for example homogeneity, spraying, or degradation). This work proposes to statistically study the different sources of variability observed in infrared spectra, to identify them, understand them and try to minimize them. The second goal is to propose a procedure for spectra comparison that is more transparent, and allows obtaining reproducible answers being independent from the expert. The first part of the manuscript focuses on the optimization of infrared measurement and on the main analytical parameters. The necessary conditions to obtain reproducible spectra with a minimized variation within a sample (intra-variability) are presented. Following that a procedure of spectral correction is then proposed using pretreatments and variable selection methods, in order to minimize systematic and random errors, and increase simultaneously relevant chemical information. The second part presents a market study of 74 spray paints representative of the Swiss market. The discrimination capabilities of FTIR at the brand and model level are evaluated by means of visual and statistical procedures. The inferior limits of discrimination are tested on paints coming from the same brand and model, but from different production batches. The results showed that the pigment composition was particularly discriminatory, because of the corrections and adjustments made to the paint color during its manufacturing process. The features associated with spray paint traces (graffitis, droplets) were also tested. Three elements were identified and their influence on the resulting infrared spectra were tested: 1) the minimum shaking time necessary to obtain a sufficient homogeneity of the paint and subsequently of the painted surface, 2) the degradation initiated by ultraviolet radiation in an exterior environment, and 3) the contamination from the support when paint is recovered. Finally a population study was performed on 35 graffitis coming from the city of Lausanne and surroundings areas, and the results were compared to the previous market study of spray cans. The last part concentrated on the decision process during the pairwise comparison of spectra. First, an understanding of the actual practice among laboratories was initiated by submitting a questionnaire. Then, a proposition for a statistical method of comparison was advanced to improve the objectivity and transparency during the decision process. A method of comparison based on the correlation between spectra is proposed, followed by the integration into a Bayesian framework at both source and activity levels. Finally, some case examples are presented and the recommended methodology is discussed in order to define the role of the expert as well as the contribution of the tested statistical approach within a global analytical sequence for paint examinations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To efficiently replicate within mammalian cells, viruses have to manoeuvre through complex host mechanisms, hijacking a network of host proteins to achieve successful propagation. To prevent this invasion, cells have evolved over time to efficiently block the incursing pathogen by direct or indirect targeting. Human immunodeficiency virus (HIV) is a retrovirus of major global public health issue. In the last decade, extensive focus on innate immune proteins has been given, and particularly restriction factors, proteins inhibiting HIV replication by affecting various stages of the viral cycle. Because of the importance of developing new HIV therapies that are associated with reduced side effects and resistances, there is an urge to understand the antiviral response against HIV. Using common features of known restriction factors as a signature to identify new anti-HIV factors, candidates were identified. Particularly multiple members of the apolipoproteins L (APOL) family were found. Cotransfection experiments confirmed very potent inhibitory effects on HIV-1 expression. Further characterization of APOL6, the best candidate, was carried out. APOL6 was not able to inhibit HIV specifically but rather inhibited any gene-encoded DNA that was cotransfected and therefore APOL6 does not classify as a bona fide restriction factor. In addition, we were able to map the activity of APOL6 to the MAD domain and mainly to residue 174. We also found that other members of the family identified in the screen, APOL1 and 3, could have similar mechanism of action as APOL6. Finally, although the complete mechanism of action of APOL6 has yet to be elucidated, it might be blocked during transfections, potentially improving transfection of primary cells. -- Pour se répliquer efficacement dans les cellules de mammifères, les virus doivent manoeuvrer à travers des mécanismes cellulaires complexes et détourner un réseau de protéines de l'hôte. Pour empêcher cette invasion, les gènes de l'hôte ont évolué dans le temps pour cibler efficacement, directement ou indirectement, l'agent pathogène. Le virus de l'immunodéficience humaine (VIH) est un rétrovirus de problème majeur de santé publique mondiale, mais le faible risque de transmission du virus pourrait être expliqué par la présence d'un système antiviral de l'hôte qui, en cas d'échec, conduit à une infection productive. Durant la dernière décennie, il y a eu un intérêt spécial porté sur les protéines immunitaires innées appelé facteurs de restriction présentant des effets inhibiteurs puissants sur la réplication du VIH en affectant différentes étapes du cycle viral. En raison de l'importance de la recherche de nouvelles thérapies anti-VIH associées à des effets secondaires et des résistances réduites comparé aux traitements actuels, il existe un besoin de comprendre la réponse antivirale innée contre le VIH. Basé sur des caractéristiques communes des facteurs de restriction connus, nous avons proposé d'identifier de nouveaux facteurs anti-VIH. Nous avons trouvé une famille de protéines, les apolipoprotéines L (APOL) montrant les effets inhibiteurs très puissants contre l'expression du VIH-1 dans des expériences de co-transfection. Nous avons décidé d'approfondir le rôle de ces protéines dans l'immunité innée et de se concentrer sur le meilleur candidat APOL6. Nous avons en outre établi qu'APOL6 n'a pas d'activité anti-virale spécifique et donc pas classé comme un facteur de bonne foi de restriction. Par ailleurs, APOL6 est capable d'inhiber fortement l'expression de tout Plasmide cotransfecté. En outre, nous avons été en mesure de cartographier l'activité d'APOL6 au domaine MAD et principalement au résidu 174. Nous avons également constaté que d'autres membres de la famille identifiés dans l'étude, APOL1 et 3, pourraient avoir le même mécanisme d'action qu'APOL6. Enfin, bien que le mécanisme d'action complet d'APOL6 reste à être élucidé, il pourrait être d'une importance biotechnologique car il pourrait potentiellement faciliter la transfection de cellules primaires après l'inhibition d'APOL6.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose en plaques (SEP) est une maladie démyélinisante du système nerveux central (SNC) provoquant des pertes motrices, sensitives et cognitives. La SEP se déclare chez le jeune adulte ayant des prédispositions génétiques, mais semble induite, par des facteurs environnementaux. La SEP touche principalement les femmes et sa prévalence dans les zones à haut risque, tel que la Suisse, est de 0.1%. Bien que son étiologie exacte reste méconnue, nous savons que la maladie est médiée par des lymphocytes T autoréactifs périphériques, qui infiltrent le SNC où ils activent d'autres cellules immunitaires ainsi que les cellules du SNC elles-mêmes, créant un foyer inflammatoire, qui va attaquer et finir par tuer les oligodendrocytes et les neurones. Les épisodes inflammatoires sont entrecoupés par des phases de rémission associées à une guérison partielle des lésions. Cette première phase de la maladie, comprenant des épisodes inflammatoires et de rémissions est appelé SEP récurrente-rémittente (SEP-RR) et touche 90% des patients. Elle évolue, dans deux-tiers des cas, vers une SEP secondaire progressive (SEP-SP), qui est caractérisée par une progression constante de la maladie, associée à une réduction de l'inflammation mais une augmentation de la neurodégénérescence. Les patients souffrants de SEP primaire progressive (SEP-PP) développent directement les symptômes de la phase progressive de la maladie. Les thérapies disponibles ont considérablement amélioré l'évolution de la maladie des patients SEP-RR, en agissant sur une diminution de la réponse immunitaire et donc de l'inflammation. Cependant, ces traitements sont inefficaces chez les patients SEP-SP et SEP-PP, n'agissant pas sur la neurodégénérescence. IL-22, une cytokine sécrétée notoirement par les cellules Th17, a été associée à la SEP en contribuant à la perméabilisation de la barrière hémato-encéphalique et à l'inflammation du SNC, qui sont des étapes clés de la pathogenèse de la maladie. En outre, le gène codant pour un inhibiteur puissant d'IL- 22, 'IL-22 binding protein' (IL-22BP), a été démontré comme un facteur de risque de la SEP. Ces indices nous ont poussés à nous intéresser de plus près au rôle de l'IL-22 dans la SEP. Nous avons pu montrer qu'IL-22 et IL-22BP étaient augmentées dans le sang des patients SEP par rapport à des sujets sains. Nous avons trouvé qu'IL-22 cible spécifiquement les astrocytes dans le SNC et que son récepteur est particulièrement exprimé dans les lésions des patient SEP. Contre toute attente, nous avons pu montrer que l'IL-22 semble soutenir la survie des astrocytes. Cette découverte, suggérant qu'IL-22 serait protecteur pour le SNC et pour la SEP, confirme de récentes publications et ouvre la voie à de potentielles applications thérapeutiques. En parallèle, dans le but de mieux comprendre l'immunopathogenèse de la SEP, nous avons développé les techniques de culture de cellules souches pluripotentes induites (iPSC). Nos iPSC sont dérivées du sang des donneurs et acquièrent toutes les propriétés des cellules souches embryonnaires après induction. Les iPSC peuvent ensuite être différenciées en différents types de cellules, dont les cellules du SNC. Nous avons ainsi pu obtenir avec succès des neurones, dérivés de cellules du sang, en passant par le stade des iPSC. La prochaine étape consiste à générer des cultures d'astrocytes et d'oligodendrocytes et ainsi obtenir les principales cellules du SNC, le but étant de former de véritables 'cerveaux-en-culture'. Cet outil semble particulièrement adapté à l'étude de l'activité de diverses molécules sur les cellules du SNC, comme par exemple l'IL-22 et d'autres molécules ayant un potentiel intérêt thérapeutique au niveau du SNC. Le but ultime étant de développer des co-cultures de cellules du SNC avec des cellules immunitaires autologues, de patients SEP et de sujets sains, afin de mettre en évidence l'attaque des cellules du SNC par des leucocytes autoréactifs. Ce projet prospectif a permis d'accroître nos connaissance sur des aspects immunitaires de la SEP et à pour but de mieux comprendre l'immunopathogenèse de la SEP afin d'élaborer de nouvelles stratégies thérapeutiques. -- La sclérose en plaques est une maladie auto-inflammatoire du système nerveux central conduisant à la destruction de la myéline, indispensable à la conduction nerveuse, et finalement à la mort des neurones eux-mêmes. Cela a pour conséquence des pertes motrices, sensorielles et cognitives, qui ont tendance à s'aggraver au fil de la maladie. Elle se déclare chez le jeune adulte, entre l'âge de 20 et 40 ans, et prédomine chez la femme. En Suisse, environ une personne sur l'OOO est atteinte de sclérose en plaques. Les causes exactes de cette maladie, qui incluent des facteurs génétiques et environnementaux, sont encore mal connues. Des traitements de plus en plus efficaces ont été développés ces dernières années et ont permis de drastiquement améliorer l'évolution de la maladie chez les patients atteints de sclérose en plaques. Cependant, ces traitements ne sont efficaces que sur certaines catégories de patients et peuvent engendrer de lourds effets secondaires. Ces thérapies agissent presque exclusivement sur les cellules du système immunitaire en les désactivant partiellement, mais pas sur les cellules nerveuses, qui sont pourtant celles qui conditionnent le devenir du patient. Le développement de médicaments protégeant ou permettant la régénération des cellules du système nerveux central est donc primordial. L'étude de l'interleukine-22 nous a permis de montrer que cette cytokine ('hormone' du système immunitaire) pouvait cibler spécifiquement les astrocytes, des cellules gliales qui jouent un rôle central dans le maintien de l'équilibre du système nerveux central. Nos recherches ont montré que cette interleukine-22 permettrait une meilleure survie des astrocytes durant la phase aiguë de la maladie et aurait aussi des propriétés neuroprotectrices. En parallèle, nous sommes en train de développer un nouveau modèle in vitro d'étude de la sclérose en plaques grâce à la technologie des cellules souches pluripotentes induites. Ces cellules souches sont induites à partir de cellules du sang du donneur et acquièrent toutes les caractéristiques des cellules souches embryonnaires présentes dans un organisme en formation. Ainsi, ces cellules souches pluripotentes ont, par exemple, la capacité de se différencier en cellules du système nerveux central. Nous avons pu, de cette manière, obtenir des neurones. Le but ultime serait de pouvoir reconstituer une ébauche de cerveau in vitro, en cultivant ensemble différents types de cellules du système nerveux central, afin d'y réaliser des expériences avec des cellules immunitaires du même donneur. Ces travaux ont pour but d'améliorer notre compréhension de la pathogenèse de la sclérose en plaques et de permettre le développement de nouvelles stratégies thérapeutiques. --Multiple sclerosis (MS) is a demyelinating disease of the central nervous system leading to cognitive, sensitive and motor disabilities. MS occurs in genetically predisposed young adults with probable environmental triggers. MS affects predominantly women and its prevalence in high risk area such as Switzerland is 0.1%. Though its exact aetiology remains undetermined, we know that autoreactive T cells from de periphery are reactivated and recruited into the central nervous system (CNS) were they further activate other immune cells and resident cells, creating inflammatory foci, where oligodendrocytes and neurons are insulted and, eventually, killed. Inflammatory episodes, called relapses, are interspersed with remission phases where partial recovery of the lesions occurs. This first phase of the disease, occurring in 90% of the patients, is called relapsing-remitting MS (RR-MS) and is leading, in two-third of the cases, to secondary-progressive MS (SP-MS), where there is a continuous steady progression of the disease, associated with reduced inflammation but increased neurodegeneration. Primary-progressive MS (PP-MS) patients experience directly this progressive phase of the disease. Whereas disease modifying therapies have dramatically ameliorated the disease course of RR-MS patients by dampening immunity and, in turn, inflammation, treatments of SP-MS and PP-MS patients, who suffer primarily from the neurodegenerative aspect of the disease, are still inexistent. IL-22, a pro-inflammatory Th17 cell cytokine, has been associated with MS by participating to blood-brain barrier infiltration and CNS inflammation, which are crucial steps in MS pathogenesis. In addition, the gene coding for IL-22 binding protein (IL-22BP), which is a potent secreted IL-22 inhibitor, has been associated with MS risk. These findings call for further investigation on the role of IL-22 in MS. We detected increased IL-22 and IL-22BP in the blood of MS patients as compared to healthy controls. Acting exclusively on cells of nonhematopoietic origin, we found that IL-22 targets specifically astrocytes in the CNS and that its receptor is highly expressed in the lesion of MS patients. Unexpectedly, we found that IL-22 seems to promote survival of astrocytes. This finding, suggesting that IL-22 might be protective for the CNS in the context of MS, is consistent with recent publications and might open putative therapeutic applications at the CNS level. In parallel, with the aim of better understanding the immunopathogenesis of MS, we developed induced pluripotent stem cell (iPSC) techniques. IPSC are derived from blood cells of the donors and bear embryonic stem cell properties. IPSC can be differentiated into various cell types including CNS cells. We successfully obtained neurons derived from the donor blood cells, through iPSC. We further aim at developing astrocytes and oligodendrocytes cultures to recreate a 'brain-in-a-dish'. This would be a powerful tool to test the activity of various compounds on CNS cells, including IL-22 and other putative neuroprotective drugs. Ultimately, the goal is to develop co-cultures of CNS cells with autologous immune cells of MS patients as well as healthy controls to try to expose evidence of CNS cells targeted by autoreactive leukocytes. This prospective project has increased our knowledge of immune aspects of MS and further aims at better understanding the immunopathology of MS in order to pave the way to the elaboration of new therapeutic strategies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'enquête Internet ANSWER (African Net Survey WE Respond!) auprès des migrants provenant d'Afrique subsaharienne (ASS) a été menée entre septembre 2013 et février 2014, sur mandat de l'OFSP et avec la collaboration de l'ASS. Cette enquête s'inscrit dans le cadre du mandat de surveillance épidémiologique de deuxième génération du VIH et des autres IST auquel l'IUMSP participe activement. Le but de cette enquête a été de décrire dans cette population les connaissances, attitudes et comportements (en particulier, les comportements sexuels, l'usage de préservatifs et la réalisation de tests de dépistage du VIH) en lien avec la prévention du VIH et des autres infections sexuellement transmissibles. Une analyse exploratoire de facteurs associés à certains comportements (partenaires multiples, utilisation de préservatifs, réalisation de tests) a également été menée. Il s'agissait d'une enquête par Internet auto-administrée disponible en 7 langues, à laquelle les personnes originaires d'Afrique subsaharienne étaient invitées à participer. Un groupe d'accompagnement composé de professionnels de la prévention du VIH et de médiateurs culturels de différents pays africains a participé activement à toutes les étapes du projet (conception du questionnaire, traductions, cognitive testing, promotion de l'enquête, mobilisation communautaire).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'arthrose est une maladie dégénérative des articulations due à une dégradation progressive du cartilage. La calcification de l'articulation (essentiellement due à des dépôts de cristaux de phosphate de calcium basique -cristaux BCP-) est une caractéristique de cette maladie. Cependant, le rôle des cristaux BCP reste à déterminer. Nous avons tout d'abord déterminé en utilisant des cultures primaires de chondrocytes que les cristaux de BCP induisaient la production de la cytokine IL-6, via une signalisation intracellulaire implicant les kinase Syk, PI3 et Jak et Stat3. Les cristaux de BCP induisent également la perte de protéoglycanes et l'expression de IL-6 dans des explants de cartlage humain et ces deux effets peuvent être bloqués par un inhibiteur de IL-6, le Tocilizumab. Par ailleurs, nous avons trouvé que l'IL-6 ajouté à des chondrocytes, favorisait la formation de cristax de BCP et augmentait l'expression de gènes impliqués dans le processus de minéralisation : Ank (codant pour un transporteur de pyrophooshate), Annexin5 (codant pour un canal calcique) et Pit-1 (codant pour un transporteur de phoshate). In vivo, les cristaux de BCP injectés dans l'articulation de souris induisent une érosion du cartilage. Dans un modèle murin d'arthrose du genou induit par ménisectomie, nous avons observé la formation progressive de cristaux de BCP. Fait intéressant, la présence de ces cristaux dans l'articulation précédait la destruction du cartilage. Un agent susceptible de bloquer les calcifications tel que le sodium thiosulfate (STS), administré à des souris ménisectomisées, inhibait le dépôt intra-articulaire de ces cristaux ainsi que l'érosion du cartilage. Nous avons identifié ainsi un cercle vicieux dans l'arthrose, les cristaux induisant l'interleukine-6 et l'interleukine-6 induisant la formation de ces cristaux. Nous avons étudié si on pouvait bloquer cette boucle cristaux de BCP-IL6 soit par des agents décalcifiants, soit par des inhibiteurs d'IL-6. In vitro, des anticorps anti IL- 6 ou des inhibiteurs de signalisation, inhibaient significativement IL-6 et la minéralisation induite par IL-6. De même le STS inhibait la formation de ces cristaux et la production de l'IL-6. Tout récemment, nous avons trouvé que des inhibiteurs de la xanthine oxidoréductase étaient aussi capables d'inhiber à la fois la production d'IL-6 et la minéralization des chondrocytes. Finalement, nous avons pu exclure un rôle du système IL-1 dans le modèle d'arthrose induite par ménisectomie, les souris déficientes pour IL-1a/ß, MyD88 et l'inflammasome NLRP3 n'étant pas protégées dans ce modèle d'arthrose. L'ensemble de nos résultats montre que les cristaux BCP sont pathogéniques dans l'arthrose et qu'un inhibiteur de minéralisation tel que le STS ou un inhibiteur de l'interleukine-6 constitueraient des nouvelles thérapies pour l'arthrose. -- Osteoarthritis (OA), the most common degenerative disorder of the joints, results from an imbalance between the breakdown and repair of the cartilage and surrounding articular structures. Joint calcification (essentially due to basic calcium phosphate (BCP) crystal deposition) is a characteristic feature of OA. However, the role of BCP crystal deposition in the pathogenesis of OA remains unclear[1][1]. We first demonstrated that in primary murine chondrocytes exogenous BCP crystals led to IL-6 up-modulation and that BCP crystal signaling pathways involved Syk and PI3 kinases, and also gp130 associated molecules, Jak2 and Stat3. BCP crystals also induced proteoglycan loss and IL-6 expression in human cartilage expiants, (which were significantly reduced by an IL-6 inhibitor). In addition, we found that in chondrocytes exogenous IL-6 promoted calcium-containing crystal formation and up- regulation of genes codifying for proteins involved in the calcification process: the inorganic pyrophosphate transport channel Ank, the calcium channel Annexinö and the sodium/phosphate cotransporter Piti. In vivo, BCP crystals injected into murine knee joints induced cartilage erosion. In the menisectomy model, increasing deposits, identified as BCP crystals, were progressively observed around the joint before cartilage erosion. These deposits strongly correlated with cartilage degradation and IL-6 expression. These results demonstrated that BCP crystals deposition and IL-6 production are mutually reinforcing in the osteoarthritic pathogenic process. We then investigated if we could block the BCP-IL6 loop by either targeting IL-6 production or BCP crystal deposits. Treatment of chondrocytes with anti-IL-6 antibodies or inhibitors of IL-6- signaling pathway significantly inhibited IL-6-induced crystal formation. Similarly, sodium thiosulfate (STS), a well-known systemic calcification inhibitor, decreased crystal deposition as well as HA-induced IL-6 secretion in chondrocytes and, in vivo, it decreased crystal deposits size and cartilage erosion in menisectomized knees. Interestingly, we also found that xanthine-oxidoreductase (XO) inhibitors inhibited both IL-6 production and calcium crystal depositis in chondrocytes. We began to unravel the mechanisms involved in this coordinate modulation of IL-6 and mineralization. STS inhibited Reactive Oxygen Species (ROS) generation and we are currently investigating whether XO represents a major source of ROS in chondrocyte mineralization. Finally, we ruled out that IL-1 activation/signaling plays a role in the murine model of OA induced by menisectomy, as IL-1a/ß, the IL-1 R associated molecule MyD88 and NLRP3 inflammasome deficient mice were not protected in this model of OA. Moreover TLR-1, -2, -4,-6 deficient mice had a phenotype similar to that of wild-type mice. Altogether our results demonstrated a self-amplification loop between BCP crystals deposition and IL-6 production, which represents an aggravating process in OA pathogenesis. As currently prescribed OA drugs are addressing OA symptoms,our results highlight a potential novel treatment strategy whereby inhibitors of calcium- containing crystal formation and IL-6 could be combined to form the basis of a disease modifying treatment and alter the course of OA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The endodermis is a highly conserved cell layer present in the root of all vascular plants, except Lycophytes. This tissue layer establishes a protective diffusion barrier surrounding the vasculature and is expected to prevent passive, uncontrolled flow of nutrients through the root. This barrier property is achieved by the production of Casparian strips (CS), a localized cell wall impregnation of lignin in the anticlinal walls of each endodermal cell, forming a belt-like structure sealing the extracellular space. The CS act as a selective barrier between the external cell layers and the vascular cylinder and are thought to be important in many aspects of root function. For instance, selective nutrient uptake and sequestration from the soil, resistance to different abiotic and biotic stresses are expected to involve functional CS. Although discovered 150 years ago, nothing was known about the genes involved in CS establishment until recently. The use of the model plant Arabidopsis thaliana together with both reverse and forward genetic approaches led to the discovery of an increasing number of genes involved in different steps of CS formation during the last few years. One of these genes encodes SCHENGEN3 (SGN3), a leucine-rich repeat receptor-like kinase (LRR-RLK). SGN3 was discovered first by reverse genetic due to its endodermis-enriched expression, and the corresponding mutant displays strong endodermal permeability of the apoplastic tracer Propidium Iodide (PI) indicative of defective CS. One aim of this thesis is to study the role of SGN3 at the molecular level in order to understand its involvement in establishing an impermeable CS. The endodermal permeability of sgn3 is shown to be the result of incorrect localization of key proteins involved in CS establishment (the "Casparian strip domain proteins", CASPs), leading to non-functional CS interrupted by discontinuities. CASPs localize in the plasma membrane domain subjacent to the CS, named the Casparian Strip membrane Domain (CSD). The CSD discontinuities in sgn3 together with SGN3 localization in close proximity to the CASPs lead to the assumption that SGN3 is involved in the formation of a continuous CSD. In addition, SGN3 might have a second role, acting as a kinase reporting CSD integrity leading to lignin and suberin production in CSD/CS defective plants. Up to now, sgn3 is the strongest and most specific CS mutant available, displaying tracer penetration along the whole length of the seedling root. For this reason, this mutant is well suited in order to characterize the physiological behaviour of CS affected plants. Due to the lack of such mutants in the past, it was not possible to test the presumed functions of CS by using plants lacking this structure. We decided to use sgn3 for this purpose. Surprisingly, sgn3 overall growth is only slightly affected. Nevertheless, processes expected to rely on functional CS, such as water transport through the root, nutrient homeostasis, salt tolerance and resistance to an excess of some nutrients are altered in this mutant. On the other hand, homeostasis for most elements and drought tolerance are not affected in sgn3. It is surprising to observe that homeostatic defects are specific, with a decrease in potassium and an increase in magnesium levels. It indicates a backup system, set up by the plant in order to counteract free diffusion of nutrients into the stele. For instance, potassium shortage in sgn3 upregulates the transcription of potassium influx transport proteins and genes known to be induced by potassium starvation. Moreover, sgn3 mutant is hypersensitive to low potassium conditions. Hopefully, these results about SGN3 will help our understanding of CS establishment at the molecular level. In addition, physiological experiments using sgn3 should give us a framework for future experiments and help us to understand the different roles of CS and their involvement during nutrient radial transport through the root. -- L'endoderme est un tissu présent dans les racines de toutes les plantes vasculaires à l'exception des Lycophytes. Ce tissu établit une barrière protectrice entourant les tissus vasculaires dans le but d'éviter la diffusion passive et incontrôlée des nutriments au travers de la racine. Cette propriété de barrière provient de la production des cadres de Caspary, une imprégnation localisée de lignine des parties anticlinales de la paroi de chaque cellule d'endoderme. Cela donne naissance à un anneau/cadre qui rend étanche l'espace extracellulaire. Les cadres de Caspary agissent comme une barrière sélective entre les couches externes de la racine et le cylindre central et sont supposés être importants dans beaucoup d'aspects du fonctionnement de la racine. Par exemple, l'absorption sélective de nutriments et leur séquestration à partir du sol ainsi que la résistance contre différents stress abiotiques et biotiques sont supposés impliquer des cadres de Caspary fonctionnels. Bien que découverts il y a 150 ans, rien n'était connu concernant les gènes impliqués dans Ja formation des cadres de Caspary jusqu'à récemment. Durant ces dernière années, l'utilisation de la plante modèle Arabidopsis thaliana ainsi que des approches de génétique inverse et classique ont permis la découverte d'un nombre croissant de gènes impliqués à différentes étapes de la formation de cette structure. Un des ces gènes code pour SCHENGEN3 (SGN3), un récepteur kinase "leucine-rich repeat receptor-like kinase" (LRR-RLK). SGN3 a été découvert en premier par génétique inverse grâce à son expression enrichie dans l'endoderme. Les cadres de Caspary ne sont pas fonctionnels dans le mutant correspondant, ce qui est visible à cause de la perméabilité de l'endoderme au traceur apoplastique Propidium Iodide (PI). Un des objectifs de cette thèse est d'étudier la fonction de SGN3 au niveau moléculaire dans le but de comprendre son rôle dans la formation des cadres de Caspary. J'ai pu démontrer que la perméabilité de l'endoderme du mutant sgn3 est le résultat de la localisation incorrecte de protéines impliquées dans la formation des cadres de Caspary, les "Casparian strip domain proteins" (CASPs). Cela induit des cadres de Caspary non fonctionnels, contenant de nombreuses interruptions. Les CASPs sont localisés à la membrane plasmique dans un domaine sous-jacent les cadres de Caspary appelé Casparian Strip membrane Domain (CSD). Les interruptions du CSD dans le mutant sgn3, ainsi que la localisation de SGN3 à proximité des CASPs nous font penser à un rôle de SGN3 dans l'élaboration d'un CSD ininterrompu. De plus, SGN3 pourrait avoir un second rôle, agissant en tant que kinase reportant l'intégrité du CSD et induisant la production de lignine et de subérine dans des plantes contenant des cadres de Caspary non fonctionnels. Jusqu'à ce jour, sgn3 est le mutant en notre possession le plus fort et le plus spécifique, ayant un endoderme perméable tout le long de la racine. Pour cette raison, ce mutant est adéquat dans le but de caractériser la physiologie de plantes ayant des cadres de Caspary affectés. De manière surprenante, la croissance de sgn3 est seulement peu affectée. Néanmoins, des processus censés nécessiter des cadres de Caspary fonctionnels, comme le transport de l'eau au travers de la racine, l'homéostasie des nutriments, la tolérance au sel et la résistance à l'excès de certains nutriments sont altérés dans ce mutant. Malgré tout, l'homéostasie de la plupart des nutriments ainsi que la résistance au stress hydrique ne sont pas affectés dans sgn3. De manière surprenante, les altérations de l'ionome de sgn3 sont spécifiques, avec une diminution de potassium et un excès de magnésium. Cela implique un système de compensation établi par la plante dans le but d'éviter la diffusion passive des nutriments en direction du cylindre central. Par exemple, le manque de potassium dans sgn3 augmente la transcription de transporteurs permettant l'absorption de cet élément. De plus, des gènes connus pour être induits en cas de carence en potassium sont surexprimés dans sgn3 et la croissance de ce mutant est sévèrement affectée dans un substrat pauvre en potassium. Ces résultats concernant SGN3 vont, espérons-le, aider à la compréhension du processus de formation des cadres de Caspary au niveau moléculaire. De plus, les expériences de physiologie utilisant sgn3 présentées dans cette thèse devraient nous donner une base pour des expériences futures et nous permettre de comprendre mieux le rôle des cadres de Caspary, et plus particulièrement leur implication dans le transport radial des nutriments au travers de la racine. -- Les plantes terrestres sont des organismes puisant l'eau et les nutriments dont elles ont besoin pour leur croissance dans le sol grâce à leurs racines. De par leur immobilité, elles doivent s'adapter à des sols contenant des quantités variables de nutriments et il leur est crucial de sélectionner ce dont elles ont besoin afin de ne pas s'intoxiquer. Cette sélection est faite grâce à un filtre formé d'un tissu racinaire interne appelé endoderme. L'endoderme fabrique une barrière imperméable entourant chaque cellule appelée "cadre de Caspary". Ces cadres de Caspary empêchent le libre passage des nutriments, permettant un contrôle précis de leur passage. De plus, ils sont censés permettre de résister contre différents stress environnementaux comme la sécheresse, la salinité du sol ou l'excès de nutriments. Bien que découverts il y a 150 ans, rien n'était connu concernant les gènes impliqués dans la formation des cadres de Caspary jusqu'à récemment. Durant ces dernière années, l'utilisation de la plante modèle Arabidopsis thaliana a permis la découverte d'un nombre croissant de gènes impliqués à différentes étapes de la formation de cette structure. Un de ces gènes code pour SCHENGEN3 (SGN3), un récepteur kinase "leucine-rich repeat receptor-like kinase" (LRR- RLK). Nous montrons dans cette étude que le gène SGN3 est impliqué dans la formation des cadres de Caspary, et que le mutant correspondant sgn3 a des cadres de Caspary interrompus. Ces interruptions rendent l'endoderme perméable, l'empêchant de bloquer le passage des molécules depuis le sol vers le centre de la racine. En utilisant ce mutant, nous avons pu caractériser la physiologie de plantes ayant des cadres de Caspary affectés. Cela a permis de découvrir que le transport de l'eau au travers de la racine était affecté dans le mutant sgn3. De plus, l'accumulation de certains éléments dans les feuilles de ce mutant est altérée. Nous avons également pu montrer une sensibilité de ce mutant à un excès de sel ou de certains nutriments comme le fer et le manganèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.