1000 resultados para Utilisation du sol


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce travail de thèse décrit dans un premier volet le contexte historique et géopolitique de l'héroïne et de la cocaïne, ainsi que la composition chimique des produits et les étapes de leur fabrication. Le second volet est consacré à la description du concept du profilage et aux méthodes d'analyses chimiques et de comparaison de profils. Le troisième volet présente l'utilisation d'outils permettant une gestion et une visualisation des liens chimiques mis en évidence. L'ensemble de la démarche s'inscrit dans le but visant à cerner mieux les rouages de l'organisation du trafic de stupéfiants et de proposer une architecture cohérente et efficace de la gestion des analyses des produits stupéfiants. Le résultat permet de fournir une information opérationnelle utile aux forces de police actives dans la lutte contre le trafic de stupéfiant. Enfin une réflexion est menée sur l'interprétation des résultats et la valeur probante de ceux-ci, notamment lorsqu'une expertise est rédigée à l'attention d'un magistrat ou d'un tribunal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Au travers de l'étude des régions de Crans-Montana-Sierre (Valais, Suisse) et de Chamonix-Mont-Blanc (Haute-Savoie, France), cette recherche considère les liens existants entre activités touristiques et sciences de la Terre. Ainsi, les sites géologiques et géomorphologiques pris en compte sont perçus comme ayant non seulement une valeur scientifique, mais aussi un intérêt scénique, culturel et économique. D'un point de vue (géo)touristique, différents modèles d'analyse sont proposés pour expliciter les composantes de l'offre et de la demande et comprendre le cycle de vie des objets étudiés. L'offre que constituent ces sites est tout d'abord présentée afin d'évaluer leurs différents potentiels, ainsi que l'utilisation spatio-temporelle, didactique et économique qui en est faite. Ensuite, les logiques d'acteurs sont analysées au travers des phases de valorisation, d'exploitation et de transformation, dans le but de comprendre les facteurs et les projets d'utilisation les concernant. Enfin, la demande des différents publics cibles, de même que leurs caractéristiques socio-touristiques et (géo)didactiques, sont discutées. Pour ce faire, des méthodes d'inventaire, d'évaluation, d'entretien et de questionnaire ont été utilisées, à différentes échelles d'analyse. On constate d'abord que le pôle des valeurs scénique et économique présente une plus forte mise à contribution, par rapport à l'utilisation didactique. De plus, le niveau de protection des sites ne restreint généralement pas leur exploitation, au contraire du facteur risque. Du point de vue des publics cibles, une forte demande d'explications didactiques est exprimée, s'orientant vers une approche multithématique des potentiels à mettre en valeur; des biens et services de base sont ainsi demandés. Enfin, force est de constater que seuls de grands projets peuvent rendre les activités (géo)touristiques rentables. A l'avenir, sachant que le géotourisme peut répondre à une demande touristique liée au rêve et à l'émotion, l'approche de l'offre devrait intégrer une réflexion en didactique des sciences de la Terre, d'autant que cette forme de tourisme tend à devenir une composante du développement économique régional, notamment en dehors de la saison d'hiver. Idéalement, l'utilisation touristique de la géodiversité devrait s'accompagner d'une politique de protection dynamique, combinant préservation et mise en valeur. A terme, le but ultime de cette entreprise est notamment d'élargir la notion de patrimoine culturel, pour favoriser une approche transdisciplinaire du paysage Abstract : Based on the study of the areas of Crans-Montana-Sierre (Valais, Switzerland) and Chamonix-Mont-Blanc (Haute-Savoie, France), this study considers the links between tourism activities and Earth science. Thus, the studied geological and geomorphological sites have not only a scientific va1ue, but also scenic, cultural and economic value. From a point of view of tourism, different models of analysis are examined in order to explain the components of the supply and the demand, and to understand the life cycles of the considered objects. The primary product of these sites is first presented, in order to assess their different potential as well as their didactic, economic, spatial and temporal use. The stakeholders' behaviour is then analysed to understand the factors and projected use, with the help of the optimisation, exploitation and transformation phases. Finally, the demand of the different target markets as well as their socio-tourist and (geo)didactic characteristics are discussed. To complete this study, methods of census, assessment, interviewing and questionnaire surveying are used, at different scales of analysis. The main results appear to demonstrate that the scenic and economic values present a higher value relative to the didactic use. Moreover, the required conservation measures for the studied sites do not generally restrict the use, on the contrary to the "risk" factor. From the point of view of the target market, a relevant requirement for explanatory commentary is expressed and tends towards an approach optimising different themes to utilise potential; basic popular goods and services are also requested. Finally, it is clearly demonstrated that only relevant projects are able to make this kind of activity profitable. For the future, geotourism may be marketed to a tourist demand for imagination and emotion. Consequently, the product approach should integrate a reflection on Earth science popularisation given that this branch of tourism tends to receive a component of the economic and regional development, notably during the summer period. However, the use of geodiversity should include a concept of dynamic management, taking into account conservation as well as tourism development. Thus, the final aim of this process is to r,r'iden the notion of cultural heritage, in order to stimulate a multidisciplinary approach to the landscape.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le but de mieux connaître le métabolisme secondaire de la famille des Thymelaeaceae et de découvrir de nouveaux composés naturels à intérêt thérapeutique, 30 extraits provenant de 8 espèces africaines ont été soumis à un criblage chimique et biologique. Les cibles biologiques suivantes ont servi à l?évaluation de l?activité des extraits étudiés : la moisissure phytopathogène Cladosporium cucumerinum, la levure commensale Candida albicans, la bactérie opportuniste Bacillus subtilis, la larve du moustique vecteur de la fièvre jaune Aedes aegypti et l?hôte intermédiaire mollusque de la schistosomiase urinaire Biomphalaria glabrata. Les propriétés antiradicalaires et inhibitrices de l?acétylcholinestérase de ces extraits ont également été dépistées. Des analyses sur CCM avec révélation chimique, ainsi que des expériences LC/DAD-UV, ont permis demettre en évidence la présence de tanins, de flavonoïdes et de xanthones dans les extraits polaires. Sur la base des résultats de ces analyses préliminaires, l?investigation phytochimique des extraits méthanoliques des racines et des parties aériennes de Gnidia involucrata a été entreprise. Cette démarche a permis l?isolement de 8 composés naturels et leur caractérisation complète au moyen de méthodes spectroscopiques (UV, MS, CD, 1H- et 13C-NMR). Les activités de ces produits purs ont été évaluées et il est apparu qu?ils possédaient presque tous des propriétés antiradicalaires intéressantes, supérieures à celles du BHT, un antioxydant de synthèse (E 321) utilisé dans l?industrie alimentaire. Deux benzophénones simples, respectivement O- et C-glucosylées, ont été isolées des parties aériennes de G. involucrata au côté de la mangiférine, une C-glycosylxanthone ubiquitaire. Ces découvertes sont remarquables à plusieurs titres : (1) les benzophénones simples (nonprénylées) sont très rares dans la nature ; (2) c?est la première fois qu?une Oglycosylbenzophénone a été décrite ; (3) aucune xanthone n?avait été mise en évidence auparavant dans la famille et (4) les benzophénones semblent ne pas être que des produits intermédiaires dans la biosynthèse des xanthones. Trois 3,8??-biflavanones du type GB ont été isolées des racines et des parties aériennes de la même plante, dont deux stéréoisomères se trouvant en mélange. Une analyse LC/CD a permis d?attribuer les configurations absolues des quatre carbones asymétriques de chaque molécule. Cette classe de métabolites secondaires est réputée pour ses propriétés analgésiques et sa présence chez les Thymelaeaceae est prometteuse. Des techniques couplées de pointe ont été utilisées dans ce travail et ont montré leur apport inestimable dans le domaine de la recherche phytochimique. Une analyse LC/ MSn a ainsi permis de mettre en évidence on-line trois C-glycosylflavones ? l?isoorientine, l?isovitexine et la vitexine ? dans les extraits méthanoliques bruts de G. involucrata. De plus, les parties aériennes de cette même plante ont servi de matériel pour le développement d?une nouvelle méthode d?analyse d?extraits bruts : la LC/1H-NMR time-slice. Cette approche consiste à « découper » le temps d?analyse par des interruptions régulières du flux LC, durant lesquelles les données NMR nécessaires sont acquises. Le problème de la faible sensibilité relative de la LC/NMR a été partiellement résolu par ce biais et a permis d?envisager l?utilisation de la NMR au sein de systèmes de couplages multiples en série avec d?autres méthodes spectrales (UV, MS, IR, CD,?).<br/><br/>With the aim of acquiring a better knowledge of the secondary metabolism of the family Thymelaeaceae and of the discovering of new natural therapeutics, 30 extracts from 8 African plant species were submitted to chemical and biological screening. The following biological targets were used to estimate the activity of the extracts under study: the phytopathogenic fungus Cladosporium cucumerinum, the commensal yeast Candida albicans, the opportunistic bacteria Bacillus subtilis, larvae of the yellow fever-transmitting mosquito Aedes aegypti and the intermediate snail host of urinary schistosomiasis Biomphalaria glabrata. The antiradical and acetylcholinesterase-inhibiting properties of these extracts were also investigated. TLC analyses followed by chemical detection, together with LC/DAD-UV experiments, showed the presence of tannins, flavonoids and xanthones in the polar extracts. On the basis of these results, a phytochemical investigation of the methanol extracts of the roots and the aerial parts of Gnidia involucrata was undertaken. This procedure led to the isolation of 8 natural products, which were then characterised by spectroscopic means (UV, MS, CD, 1H- and 13C-NMR). The activities of the pure compounds were then further evaluated: almost all of them exhibited very interesting antiradical properties, superior to those of BHT, a synthetic antioxidant (E 321) used in the food industry. Two simple benzophenones, one O- and one C-glycosylated, were isolated from the aerial parts of G. involucrata, together with mangiferin, a ubiquitous C-glycosylxanthone. These findings are of multiple importance: (1) simple (non-prenylated) benzophenones are very rare in nature; (2) it is the first time that an O-glycosylbenzophenone has been described; (3) no xanthones have been previously reported in the family and (4) benzophenones do not seem to be exclusive intermediates in the biosynthesis of xanthones. Three 3,8??-biflavanones of the GB type were isolated from the roots and the aerial parts of the same plant, among them two stereoisomers in mixture. A LC/CD analysis allowed the assignment of the absolute configurations of all four stereocenters in both molecules. This class of secondary metabolite is well known for its analgesic properties and its presence in the Thymelaeaceae is very promising. Advanced hyphenated techniques were used in this work and showed their inestimable contribution to the field of phytochemical research. A LC/MSn analysis, for example, allowed the on-line characterisation of three C-glycosylflavones ? isoorientin, isovitexin and vitexin ? in the crude methanol extracts of G. involucrata. Furthermore, the aerial parts of this plant were used as material for the development of a new analytical method for crude plant extracts: time-slice LC/1H-NMR. This approach consisted in "slicing" the analytical procedure by interrupting the LC flow at given intervals, during which the necessary NMR data were acquired. The relative lack of sensitivity of LC/NMR was partially surmounted by this means, allowing one to envisage the use of NMR in a multiple hyphenated system, together with other spectroscopic methods (UV, MS, IR, CD,?)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Collection : Ressources

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les recommandations en termes de prévention contre la malaria pour les pays à risques modéré à faible diffèrent entre les pays, malgré le fait que les personnes soient exposées à un risque identique dans les pays qu'ils visitent. Pour inclure les voyageurs dans la réflexion, des outils de partage de la décision ont été développés et testés dans cette population. Leur utilisation a montré que la majorité des personnes choisissent de ne pas prendre de chimioprophylaxie en avançant des raisons valides. Le développement d'aides décisionnelles répondant à des critères reconnus est prévu et permettra d'améliorer la pertinence des recommandations. Les aides décisionnelles permettront aussi aux voyageurs de faire un choix de prévention avec les soignants au plus près de leurs valeurs et préférences, tout en respectant les règles de l'éthique médicale. Recommendations for malaria prevention for travelers planning a trip in medium to low risk countries differ between countries, despite the fact that people are exposed to the same risk in the travelled country. Decision aids have been developed and tested in a population of travelers planning a trip in such countries n order to present travelers the various prevention options and involve them in the decision. The use of the decision aid showed that he majority of people choose not to take chemoprophylaxis and that they could motivate their choice with valid reasons. The development of decision aids based on recognized quality criteria is foreseen; these will allow to improving the relevance of the recommendations and enable travelers to choose a prevention option that will be the closest to their values and preferences while following to the principles of medical ethics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fracture périprothétique du fémur (FPF) représente une complication sérieuse des arthroplasties de hanche. Différents matériels d'ostéosynthèse ont été utilisés pour l'ostéosynthèse des FPFs. Toutefois, aucune étude n'a rapporté les résultats obtenus avec une plaque anatomique non-verrouillée avec des trous excentrés. Les buts de ce travail étaient de présenter 1) le taux de consolidation des FPF traitées par cet implant, 2) les caractéristiques péri-opératoires 3) le taux de complications, et 4) les résultats en terme d'autonomie obtenus après le traitement des FPF du groupe B selon Vancouver avec une plaque anatomique à trous excentrés. Hypothèse L'utilisation de cette plaque permet d'obtenir un taux élevé de consolidation avec un minimum de complications mécaniques. Matériels et Méthodes Quarante-trois patients, d'âge moyen 79 ans ± 13 (41 - 98), qui ont été traités pour une ostéosynthèse d'une FPF de type B selon Vancouver avec cette plaque entre 2002 et 2007 ont été inclus. Les patients ont été classifiées selon les scores ASA et de Charnley. Le temps opératoire, les pertes sanguines chirurgicales, le nombre de transfusion, la durée d'hospitalisation, le délai de consolidation, le lieu de vie ainsi que l'autonomie (score de Parker) ont été évalués. Le taux de survie sans révision a été calculé par la méthode de Kaplan-Meier. Le recul moyen est de 42 mois ± 20 (min - max : 16 - 90). Résultats La consolidation a été obtenue chez tous les patients avec un délai moyen de 2,4 mois ± 0,6 (2-4). 1 patient avec un cal vicieux en varus était à déplorer. Le score de Parker a diminué de 5,93 ± 1,94 (2-9) à 4,93 ± 1,8 (1- 9) (p = 0.01). 2 révisions chirurgicales ont été nécessaires sur la série. Le taux de survie à 5 ans des prothèses après ostéosynthèse de la FPF était de 83,3 % ± 12,6 %. Conclusion Cette plaque anatomique avec trous excentrés permet le traitement des FPF du type B et garantit une consolidation de la fracture avec un faible taux de complications liés à l'ostéosynthèse. Toutefois, les FPF représentent une complication sérieuse des arthroplasties de hanche assortie d'un fort taux de morbidités et de mortalité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mort subite est la première cause de mortalité chez les patients souffrant d'une insuffisance rénale terminale traités par dialyse chronique. La technique de dialyse utilisée et la composition chimique du dialysat influencent l'incidence des arythmies. Des études pilotes démontrent que l'utilisation d'un dialysat sans acétate avec perfusion de bicarbonate de sodium en aval du filtre de dialyse, couplée à une modulation du profil de potassium pendant la séance de dialyse, ou acetate free biofiltration with potassium profiled dialysate, permet de réduire l'incidence des arythmies, l'intervalle QT et sa dispersion. La limitation du volume de soustraction liquidienne pendant la dialyse et l'augmentation de la concentration de calcium dans le dialysat constituent d'autres stratégies anti-arythmogènes possibles Sudden death is the first cause of mortality in patients with end stage renal disease undergoing chronic dialysis treatment. The technique of dialysis as well as the chemical composition of the dialysate can impact on the incidence of cardiac arrhythmias. Pilot studies reveal that the use of an acetate-free dialysate with a downstream filter infusion of sodium bicarbonate, coupled with a modulated potassium-profiled dialysate during hemodialysis, or acetate free biofiltration with potassium profiled dialysate, reduces the incidence of arrhythmias, the QT interval and QT dispersion. The limitation of the ultrafiltration volume during the dialysis session, and the increase in calcium concentration in the dialysate are other possible strategies to reduce cardiac arrhythmias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une lésion nerveuse périphérique est susceptible d'engendrer une douleur neuropathique caractérisée par des changements d'expression génique dans les neurones nociceptifs des ganglions spinaux. Parmi ces modifications, on note une augmentation transcriptionnelle du gène codant pour la guanosine triphosphate cyclohydrolase 1 (GCH1) considérée comme modulateur clé des douleurs neuropathiques périphériques1. La surexpression de la GCH1 induit alors une hausse de la concentration de la tétrahydrobiopterin (BH4), un cofacteur essentiel pour la production de catécholamines, de sérotonine et d'oxide nitrique dans les ganglions spinaux. La surexpression de ce cofacteur induit la production de ces neurotransmetteurs et contribue à l'augmentation de la sensibilité douloureuse. Dans ce travail, j'ai modulé l'expression de GCH1 par l'utilisation d'un vecteur viral adéno-associé. Tout d'abord, j'ai testé in vitro dans des cellules PC12 différentes molécules d'ARN interfèrent permettant la régulation négative de GCH1. Les cellules PC 12 contiennent constitutionnellement la GCH1 et sont donc intéressantes afin de tester et sélectionner un plasmide permettant une régulation négative efficace de cette molécule in vitro. Cela m'a permis de choisir après sélection de cellules par FACS et quantification protéique par Western blot les meilleurs sh-ARN à utiliser tant pour la régulation négative de GCH1 que pour le vecteur contrôle. J'ai ensuite co- transfecté ces plasmides avec le plasmide pDF6 dans des cellules HEK293T pour la production de mon vecteur viral (rAAV2/6) permettant la régulation négative de la GCH1 ainsi que de mon vecteur contrôle. Après avoir étudié deux voies d'injection chez le rat (dans le nerf sciatique et en intrathécal), j'ai retenu la voie intrathécale comme ayant le meilleur taux de transduction de mon vecteur viral au niveau des ganglions spinaux. Utiliser cette voie d'injection pour mon vecteur permet de cibler plus particulièrement les neurones nociceptifs des ganglions spinaux. J'ai ensuite étudié la modulation de la GCH1 et sa répercussion sur le développement et le maintien des douleurs neuropathiques dans le modèle animal « spared nerve injury » (SNI). Je n'ai pas obtenu de diminution de douleur ni au niveau comportemental ni au niveau moléculaire chez le rat. Ayant répété l'expérience chez la souris, j'ai obtenu une diminution significative de l'expression de la GCH1 au niveau de l'ARN messager. Je n'ai pas étudié l'efficacité de mon vecteur in vivo chez la souris car un autre groupe m'a devancé dans cette expérience et a publié une étude similaire montrant une régulation négative et efficace de la GCH1 sur les symptômes de douleur neuropathique. Mes résultats, associés à cette publication, démontrent la validité de mon hypothèse de départ et ouvrent de nouvelles perspectives thérapeutiques en prenant comme cible la production de BH4.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.