91 resultados para spectroscopie d’émission optique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Plusieurs auteurs ont étudié la perception en fonction de la psychopathologie. Dans cette optique, Borgeat, David, Saucier et Dumont en 1994 et Borgeat, Sauvageau, David et Saucier en 1997 ont utilisé la méthode tachistoscopique afin de comparer, dans une étude prospective, la perception de stimuli émotionnels entre des femmes souffrant d'une dépression du post- partum et des femmes non atteintes. Par ailleurs, des études antérieures, notamment les travaux de MacLeod et Rutherford en 1992, avaient montré la possibilité d'un processus de perception différent entre sujets anxieux et non anxieux. L'étude actuelle pose l'hypothèse d'une interaction entre caractéristiques du stimulus et trouble anxieux du sujet. Cette hypothèse suppose donc un processus préconscient de l'information, avec analyse sémantique de cette dernière, à même d'influencer (inhiber ou faciliter) la perception de certains stimuli en fonction de leur charge affective. L'étude que nous présentons a pour but d'évaluer la perception de stimuli anxiogènes chez les patients atteints de troubles anxieux, et plus particulièrement chez des sujets souffrant d'attaque de panique et de troubles obsessionnels-compulsifs. A cette fin, nous avons choisi, contrairement à la plupart des études effectuées jusqu'à présent où la méthode Stroop avait été utilisée, la technique tachistoscopique qui, à notre avis, permet une mesure plus directe de la rapidité du processus perceptuel. Ainsi, trois groupes de sujets ont pris part à l'étude : un groupe contrôle (N = 22), un groupe de patients souffrant d'attaques de panique (N = 21) et un groupe de patients atteints de troubles obsessionnels-compulsifs (N = 20). Ces 63 sujets, âgés entre 18 et 60 ans, ont à la fois répondu au Fear Questionnaire ainsi qu'au Questionnaire Beck 13 pour la dépression et procédé à la reconnaissance de 42 mots (six groupes de sept mots) présentés aléatoirement à l'ordinateur, en cycles successifs de 15 millisecondes. Cinq parmi les six groupes de mots se référaient à un trouble anxieux spécifique, le sixième étant considéré comme un groupe de mots « neutres ». Le temps, en millisecondes, nécessaire à la reconnaissance de chaque mot a été enregistré. Les résultats montrent une lenteur de la part des patients souffrant d'attaques de panique pour la reconnaissance de tous les stimuli par rapport aux sujets contrôle, avec une performance intermédiaire entre les deux groupes pour les patients atteints de troubles obsessionnels-compulsifs. De plus, l'analyse statistique a révélé deux effets d'interaction : les patients atteints d'attaques de panique sont plus rapides à reconnaître le groupe de mots en rapport avec leur angoisse, de même que les patients soufflant de troubles obsessionnels- compulsifs ont un temps moyen de reconnaissance des mots en rapport avec leur trouble plus bas que prévu. Ces résultats amènent à une double conclusion. La première est que les patients anxieux manifestent une défense perceptuelle globale face aux stimuli anxiogènes en général, et que cette défense est plus marquée chez les patients atteints d'attaques de panique que chez les sujets souffrant de troubles obsessionnels-compulsifs. La deuxième est que ces mêmes patients, confrontés à des stimuli en rapport avec leur propre angoisse, montrent une vigilance accrue. Ainsi, ces données évoquent une double stratégie de traitement de l'information chez les patients anxieux : un évitement perceptuel général face à l'information émotionnellement chargée, et un traitement sélectif de l'information ayant un rapport direct avec l'angoisse dont ils soufflent. SUMMARY Prior research by MacLeod and Rutherford (1992) indicates that anxious subjects could have perceptual strategies different from nonanxious subjects. 42 verbal stimuli of six types (disease, social anxiety, panic, agoraphobia, obsessive-compulsive, and neutral) were tachistoscopically presented to three groups of subjects, aged 18 to 60 years: Panic Disorder group (n =21: 13 women and 8 men), and Obsessive-Compulsive Disorder group (n=20: 14 women and 6 men), recruited from an outpatient clinic, and a Control group (n=22: 14 women and 8 men), recruited among students and hospital staff. The times required for correct identification were generally longer for anxious subjects but quicker for stimuli specifically related to their disorder. The data could indicate a two-step perceptual strategy or two distinct ways of perceiving, usually, a generalized perceptual defense for a majority of anxiety-loaded stimuli, but also a selectively facilitated processing for stimuli specific to the disorder.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De tout temps, hommes et femmes ont cherché par tous les moyens à développer, préserver ou recouvrer leurs propres capacités sexuelles mais également à stimuler le désir du partenaire. L?utilisation d?aphrodisiaques naturels a été l?un des recours les plus répandus. De nos jours, la commercialisation de nouvelles "love drugs" de synthèse, e.g. Viagra®, Cialis®, Levitra®, a remis au goût du jour les aphrodisiaques classiques et à relancer la recherche sur des molécules nouvelles. La pratique croissante de l?automédication, le matraquage publicitaire sur les aphrodisiaques naturels, la prolifération sur le marché de compléments alimentaires non contrôlés et l?absence de véritable législation accroissent les risques qui pèsent sur la santé publique. Dans le but d?évaluer les risques potentiels sur le consommateur de produits aphrodisiaques commercialisés, le développement et la validation d?une méthode rapide d?analyse qualitative et quantitative de la yohimbine dans ces préparations du marché sont exposés dans la première partie de ce travail. La yohimbine est un antagoniste ?2-adrénocepteur du système nerveux central et périphérique, elle est employée depuis plus d?un siècle dans le traitement des dysfonctionnements érectiles. Cette méthode analytique utilise la chromatographie liquide couplée à l?ultraviolet et à la spectrométrie de masse (LC-UV-MS) et au total, vingt préparations aphrodisiaques ont été étudiées. La dose journalière de yohimbine mesurée s?est révélée très variable selon les produits puisqu?elle varie de 1.32 à 23.16 mg. La seconde partie de ce travail concerne l?étude phytochimique et pharmacologique d?Erythroxylum vacciniifolium Mart. (Erythroxylaceae), une plante, appelée localement catuaba, utilisée dans la médecine traditionnelle brésilienne comme tonique et aphrodisiaque. Dans un premier temps, l?extrait alcaloïdique a été analysé par chromatographie liquide haute performance (HPLC) couplée soit à un détecteur UV à barrette d?iode (LC-UV-DAD), soit à un spectromètre de masse (LC-MS), ou soit à un spectromètre de résonance magnétique nucléaire (LC-RMN). L?interprétation de ces données spectrales enregistrées en ligne a permis d?obtenir des informations structurales et d?identifier partiellement près de 24 alcaloïdes appartenant à la classe des tropanes et potentiellement originaux. Par des méthodes classiques de chromatographie liquide sur l?extrait alcaloïdique de la plante, dix sept tropanes nouveaux ont ensuite été isolés dont les catuabines et leurs dérivés, et les vaccinines. Tous ces composés sont des tropane-diols ou triols estérifiés par au moins un groupe acide 1-méthyl-1H-pyrrole-2-carboxylique. Un de ces composés a été identifié comme un tropane N-oxyde. Toutes les structures ont été déterminées par spectrométrie de masse haute résolution et spectroscopie RMN multi-dimensionnelle. Parmi les nombreux tests biologiques réalisés sur ces tropanes, seuls les tests de cytotoxicité se sont révélés faiblement positifs pour certains de ces composés.<br/><br/>Throughout the ages, men and women have incessantly pursued every means to increase, preserve or recapture their sexual capacity, or to stimulate the sexual desire of selected individuals. One of the most recurrent methods has been the use of natural aphrodisiacs. Nowadays, the commercialization of new synthetic "love drugs", e.g. Viagra®, Cialis® and Levitra®, has fascinated the public interest and has led to a reassessment of classical aphrodisiacs and to the search for new ones. The practice of self-medication by an increasing number of patients, the incessant aggressive advertising of these herbal aphrodisiacs, the invasion of the medicinal market with uncontrolled dietary supplements and the absence of real directives amplifies the potential health hazards to the community. In order to evaluate the possible risks of commercialized aphrodisiac products on consumer health, the development and validation of a rapid qualitative and quantitative method for the analysis of yohimbine in these products, is reported in the first part of the present work. Yohimbine, a pharmacologically well-characterized ?2-adrenoceptor antagonist with activity in the central and peripheral nervous system, has been used for over a century in the treatment of erectile dysfunction. The analytical method is based on liquid chromatography coupled with ultraviolet and mass spectrometry (LC-UV-MS) and in total, 20 commercially-available aphrodisiac preparations were analyzed. The amount of yohimbine measured and expressed as the maximal dose per day suggested on product labels ranged from 1.32 to 23.16 mg. The second part of this work involved the phytochemical and pharmacological investigation of Erythroxylum vacciniifolium Mart. (Erythroxylaceae), a plant used in Brazilian traditional medicine as an aphrodisiac and tonic, and locally known as catuaba. With the aim of obtaining preliminary structure information on-line, the alkaloid extract was analyzed by high performance liquid chromatography (HPLC) coupled to diode array UV detection (LC-UVDAD), to mass spectrometry (LC-MS) and to nuclear magnetic resonance spectroscopy (LCNMR). Interpretation of on-line spectroscopic data led to structure elucidation and partial identification of 24 potentially original alkaloids bearing the same tropane skeleton. Seventeen new tropane alkaloids were then isolated from the alkaloid extract of the plant, including catuabines D to I, their derivatives and vaccinines A and B. All compounds were elucidated as tropane-diol or -triol alkaloids esterified by at least one 1-methyl-1H-pyrrole-2-carboxylic acid. One of the isolated compounds was identified as a tropane alkaloid N-oxide. Their structures were determined by high resolution mass spectrometry and multi-dimensional NMR spectroscopy. Among the numerous bioassays undertaken, only the cytotoxicity tests exhibited a weak positive activity of certain compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les échantillons biologiques ne s?arrangent pas toujours en objets ordonnés (cristaux 2D ou hélices) nécessaires pour la microscopie électronique ni en cristaux 3D parfaitement ordonnés pour la cristallographie rayons X alors que de nombreux spécimens sont tout simplement trop << gros D pour la spectroscopie NMR. C?est pour ces raisons que l?analyse de particules isolées par la cryo-microscopie électronique est devenue une technique de plus en plus importante pour déterminer la structure de macromolécules. Néanmoins, le faible rapport signal-sur-bruit ainsi que la forte sensibilité des échantillons biologiques natifs face au faisceau électronique restent deux parmi les facteurs limitant la résolution. La cryo-coloration négative est une technique récemment développée permettant l?observation des échantillons biologiques avec le microscope électronique. Ils sont observés à l?état vitrifié et à basse température, en présence d?un colorant (molybdate d?ammonium). Les avantages de la cryo-coloration négative sont étudiés dans ce travail. Les résultats obtenus révèlent que les problèmes majeurs peuvent êtres évités par l?utilisation de cette nouvelle technique. Les échantillons sont représentés fidèlement avec un SNR 10 fois plus important que dans le cas des échantillons dans l?eau. De plus, la comparaison de données obtenues après de multiples expositions montre que les dégâts liés au faisceau électronique sont réduits considérablement. D?autre part, les résultats exposés mettent en évidence que la technique est idéale pour l?analyse à haute résolution de macromolécules biologiques. La solution vitrifiée de molybdate d?ammonium entourant l?échantillon n?empêche pas l?accès à la structure interne de la protéine. Finalement, plusieurs exemples d?application démontrent les avantages de cette technique nouvellement développée.<br/><br/>Many biological specimens do not arrange themselves in ordered assemblies (tubular or flat 2D crystals) suitable for electron crystallography, nor in perfectly ordered 3D crystals for X-ray diffraction; many other are simply too large to be approached by NMR spectroscopy. Therefore, single-particles analysis has become a progressively more important technique for structural determination of large isolated macromolecules by cryo-electron microscopy. Nevertheless, the low signal-to-noise ratio and the high electron-beam sensitivity of biological samples remain two main resolution-limiting factors, when the specimens are observed in their native state. Cryo-negative staining is a recently developed technique that allows the study of biological samples with the electron microscope. The samples are observed at low temperature, in the vitrified state, but in presence of a stain (ammonium molybdate). In the present work, the advantages of this novel technique are investigated: it is shown that cryo-negative staining can generally overcome most of the problems encountered with cryo-electron microscopy of vitrified native suspension of biological particles. The specimens are faithfully represented with a 10-times higher SNR than in the case of unstained samples. Beam-damage is found to be considerably reduced by comparison of multiple-exposure series of both stained and unstained samples. The present report also demonstrates that cryo-negative staining is capable of high- resolution analysis of biological macromolecules. The vitrified stain solution surrounding the sample does not forbid the access to the interna1 features (ie. the secondary structure) of a protein. This finding is of direct interest for the structural biologist trying to combine electron microscopy and X-ray data. developed electron microscopy technique. Finally, several application examples demonstrate the advantages of this newly

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L?objectif de ce travail de thèse est l?étude des changements conformationels des biomacromolecules à l?échelle d?une molécule unique. Pour cela on a utilisé la Microscopie à Force Atomique (AFM) appliqué à l?étude des protéines et des acides nucléiques déposés sur une surface. Dans ce type de microscopie, une pointe très fine attachée à l?extrémité d?un levier est balayée au dessus d?une surface. L?interaction de la pointe avec la surface de l?échantillon induit la déflection du levier et ce phénomène permet de reconstruire la topographie de l?échantillon. Très importante dans cette technique est la possibilité de travailler en liquide. Cela permet de étudier les biomolécules en conditions quasi-physiologiques sans qu?elles perdent leur activité. On a étudié GroEL, la chaperonin de E.coli, qui est un homo oligomère avec une structure à double anneau qui joue un rôle très important dans le repliement des protéines dénaturées et celles qui viennent d?être synthétisées. En particulier on a focalisé notre attention sur la stabilité mécanique et sur les changements conformationels qui ont lieu pendant l?activité de GroEL. Une analyse détaillée des changements dans la stabilité mécanique et des effets produits par la liaison et l?hydrolyse de l?ATP est présentée dans ce travail. On a montré que le point le plus faible dans la structure de GroEL est l?interface entre les deux anneaux et que l?étape critique dans l?affaiblissement de la structure est l?hydrolyse de l?ATP. En ce qui concerne le changement conformationel, le passage d?une surface hydrophobe à hydrophile, induit par l?hydrolyse de l?ATP, a été montré. Ensuite on a étudié le changement dans la conformation et dans la topologie de l?ADN résultant de l?interaction avec des molécules spécifiques et en réponse à l?exposition des cellules de E.coli à des conditions de stress. Le niveau de surenroulement est un paramètre très sensible, de façon variée, à tous ces facteurs. Les cellules qui ont crus à de températures plus élevées que leur température optimale ont la tendance à diminuer le nombre de surenroulements négatif pour augmenter la stabilité thermique de leur plasmides. L?interaction avec des agents intercalant induit une transition d?un surenroulement négatif à un surenroulement positif d?une façon dépendante de la température. Finalement, l?effet de l?interaction de l?ADN avec des surfaces différentes a été étudié et une application pratique sur les noeuds d?ADN est présentée.<br/><br/>The aim of the present thesis work is to study the conformational changes of biomacromolecules at the single molecule level. To that end, Atomic Force Microcopy (AFM) imaging was performed on proteins and nucleic acids adsorbed onto a surface. In this microcopy technique a very sharp tip attached at the end of a soft cantilever is scanned over a surface, the interaction of the tip with the sample?s surface will induce the deflection of the cantilever and thus it will make possible to reconstruct the topography. A very important feature of AFM is the possibility to operate in liquid, it means with the sample immersed in a buffer solution. This allows one to study biomolecules in quasi-physiological conditions without loosing their activity. We have studied GroEL, the chaperonin of E.coli, which is a double-ring homooligomer which pays a very important role in the refolding of unfolded and newly synthetized polypeptides. In particular we focus our attention on its mechanical stability and on the conformational change that it undergoes during its activity cycle. A detailed analysis of the change in mechanical stability and how it is affected by the binding and hydrolysis of nucleotides is presented. It has been shown that the weak point of the chaperonin complex is the interface between the two rings and that the critical step to weaken the structure is the hydrolysis of ATP. Concerning the conformational change we have directly measured, with a nanometer scale resolution, the switching from a hydrophobic surface to a hydrophilic one taking place inside its cavity induced by the ATP hydrolysis. We have further studied the change in the DNA conformation and topology as a consequence of the interaction with specific DNA-binding molecules and the exposition of the E.coli cells to stress conditions. The level of supercoiling has been shown to be a very sensitive parameter, even if at different extents, to all these factors. Cells grown at temperatures higher than their optimum one tend to decrease the number of the negative superhelical turns in their plasmids in order to increase their thermal stability. The interaction with intercalating molecules induced a transition from positive to negative supercoiling in a temperature dependent way. The effect of the interaction of the DNA with different surfaces has been investigated and a practical application to DNA complex knots is reported.<br/><br/>Observer les objets biologiques en le touchant Schématiquement le Microscope a Force Atomique (AFM) consiste en une pointe très fine fixée a l?extrémité d?un levier Lors de l?imagerie, la pointe de l?AFM gratte la surface de l?échantillon, la topographie de celui-ci induit des déflections du levier qui sont enregistrées au moyen d?un rayon laser réfléchi par le levier. Ces donnés sont ensuit utilisés par un ordinateur pour reconstituer en 3D la surface de l?échantillon. La résolution de l?instrument est fonction entre autre de la dureté, de la rugosité de l?échantillon et de la forme de la pointe. Selon l?échantillon et la pointe utilisée la résolution de l?AFM peut aller de 0.1 A (sur des cristaux) a quelque dizaine de nanomètres (sur des cellules). Cet instrument est particulierment intéressant en biologie en raison de sa capacité à imager des échantillons immergés dans un liquide, c?est à dire dans des conditions quasiphysiologiques. Dans le cadre de ce travail nous avons étudié les changements conformationels de molécules biologiques soumises à des stimulations externes. Nous avons essentielment concentré notre attention sur des complexes protéiques nommé Chaperons Moléculaires et sur des molécules d?ADN circulaire (plasmides). Les Chaperons sont impliqués entre autre dans la résistance des organismes vivants aux stress thermiques et osmotiques. Leur activité consiste essentielment à aider les autres protéines à être bien pliés dans leur conformation finale et, en conséquence, à eviter que ils soient dénaturées et que ils puissent s?agréger. L?ADN, quant à lui est la molécule qui conserve, dans sa séquence, l?information génétique de tous les organismes vivants. Ce travail a spécifiquement concerné l?étude des changements conformationels des chaperonins suit a leur activation par l?ATP. Ces travaux ont montrés a l?échelle de molécule unique la capacité de ces protéines de changer leur surface de hydrophobique a hydrophilique. Nous avons également utilisé l?AFM pour étudier le changement du nombre des surenroulements des molécules d?ADN circulaire lors d?une exposition à un changement de température et de force ionique. Ces travaux ont permis de montrer comment la cellule regle le nombre de surenroulements dans ces molécules pour répondre et contrôler l?expression génétique même dans de conditions extrêmes. Pour les deux molécules en général, c?était très important d?avoir la possibilité de observer leur transitions d?une conformation a l?autre directement a l?échelle d?une seul molécule et, surtout, avec une résolution largement au dessous des la longueur d?onde de la lumière visible que représente le limite pour l?imagerie optique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a aujourd'hui un relatif consensus autour de l'émergence de l'agriculture urbaine. Les projets d'agriculture urbaine se développeraient, car il y aurait une nécessité à réinstaurer des relations entre l'urbain et l'agricole. Les dispositifs qui ont été mis en place par la modernité comme le zonage, l'économie de marché, les transports, l'usage de fertilisants ou les filières agroalimentaires auraient en effet fait disparaître ces relations qu'il s'agirait aujourd'hui de reconnecter. L'agriculture urbaine serait alors présentée comme une stratégie alternative à cette distinction. Elle serait le résultat de relations réciproques - et donc équivalentes - entre l'urbain et l'agricole. Elle serait alors à la fois urbaine et agricole. Nous pensons qu'il faut sortir aujourd'hui de cette conception d'agriculture urbaine. Nous remettons tout d'abord en question le fait que l'agriculture urbaine aurait pour objectif de reconnecter l'urbain et l'agricole. Cela présuppose qu'il n'y aurait plus de relations durant la modernité entre l'agricole et l'urbain. Or, comme le montre l'étude des aspects spatiaux, fonctionnels et sociaux de ces relations sous la modernité pour les cas de Genève et de Tokyo, ces relations existeraient toujours, voire même s'intensifieraient. Nous cherchons aussi à montrer qu'il faut faire évoluer l'idée que l'agriculture urbaine étant le résultat de relations réciproques entre l'urbain et l'agricole, elle se devait d'être à la fois urbaine et agricole. Dans les faits, l'agriculture urbaine apparaît plus souvent comme un projet de l'urbain au bénéfice de celui-ci, que comme un projet partagé entre l'urbain et l'agricole. Enfin, nous mettons en avant que l'agriculture urbaine n'aurait pas la capacité de reconnecter de façon effective l'agricole et l'urbain. Ainsi, l'agriculture urbaine n'est pas en mesure de se substituer aux dispositifs mis en place par la modernité. Elle ne peut rendre les villes autonomes en denrées alimentaires, établir des symbioses agro-urbaines ou remettre en question le système des filières agroalimentaires. Dans ce contexte, nous défendons la thèse que la conception d'agriculture urbaine doit aujourd'hui évoluer vers celle de toshinogyo. L'objectif est alors de rendre visibles les relations entre l'agricole et l'urbain. Les dispositifs mis en place sous la modernité n'ont pas eu pour effet de supprimer les relations entre l'urbain et l'agricole, mais de les rendre invisibles. Il s'agit aujourd'hui de leur redonner une visibilité. En devenant cette prise qui rend visibles ces relations, la toshinogyo ne serait alors plus tenue d'être urbaine et agricole à la fois, de même qu'elle ne s'opposerait pas aux dispositifs modernes, mais en serait complémentaire. Dans le contexte Genevois, le passage de l'agriculture urbaine à la toshinogyo est loin d'être encore évident. Dans le cas de Tokyo, l'optique de la toshinogyo est clairement affirmée et pourrait alors donner des amorces de pistes à suivre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie infrarouge (FTIR) est une technique de choix dans l'analyse des peintures en spray (traces ou bonbonnes de référence), grâce à son fort pouvoir discriminant, sa sensibilité, et ses nombreuses possibilités d'échantillonnage. La comparaison des spectres obtenus est aujourd'hui principalement faite visuellement, mais cette procédure présente des limitations telles que la subjectivité de la prise de décision car celle-ci dépend de l'expérience et de la formation suivie par l'expert. De ce fait, de faibles différences d'intensités relatives entre deux pics peuvent être perçues différemment par des experts, même au sein d'un même laboratoire. Lorsqu'il s'agit de justifier ces différences, certains les expliqueront par la méthode analytique utilisée, alors que d'autres estimeront plutôt qu'il s'agit d'une variabilité intrinsèque à la peinture et/ou à son vécu (par exemple homogénéité, sprayage, ou dégradation). Ce travail propose d'étudier statistiquement les différentes sources de variabilité observables dans les spectres infrarouges, de les identifier, de les comprendre et tenter de les minimiser. Le deuxième objectif principal est de proposer une procédure de comparaison des spectres qui soit davantage transparente et permette d'obtenir des réponses reproductibles indépendamment des experts interrogés. La première partie du travail traite de l'optimisation de la mesure infrarouge et des principaux paramètres analytiques. Les conditions nécessaires afin d'obtenir des spectres reproductibles et minimisant la variation au sein d'un même échantillon (intra-variabilité) sont présentées. Par la suite une procédure de correction des spectres est proposée au moyen de prétraitements et de sélections de variables, afin de minimiser les erreurs systématiques et aléatoires restantes, et de maximiser l'information chimique pertinente. La seconde partie présente une étude de marché effectuée sur 74 bonbonnes de peintures en spray représentatives du marché suisse. Les capacités de discrimination de la méthode FTIR au niveau de la marque et du modèle sont évaluées au moyen d'une procédure visuelle, et comparées à diverses procédures statistiques. Les limites inférieures de discrimination sont testées sur des peintures de marques et modèles identiques mais provenant de différents lots de production. Les résultats ont montré que la composition en pigments était particulièrement discriminante, à cause des étapes de corrections et d'ajustement de la couleur subies lors de la production. Les particularités associées aux peintures en spray présentes sous forme de traces (graffitis, gouttelettes) ont également été testées. Trois éléments sont mis en évidence et leur influence sur le spectre infrarouge résultant testée : 1) le temps minimum de secouage nécessaire afin d'obtenir une homogénéité suffisante de la peinture et, en conséquence, de la surface peinte, 2) la dégradation initiée par le rayonnement ultra- violet en extérieur, et 3) la contamination provenant du support lors du prélèvement. Finalement une étude de population a été réalisée sur 35 graffitis de la région lausannoise et les résultats comparés à l'étude de marché des bonbonnes en spray. La dernière partie de ce travail s'est concentrée sur l'étape de prise de décision lors de la comparaison de spectres deux-à-deux, en essayant premièrement de comprendre la pratique actuelle au sein des laboratoires au moyen d'un questionnaire, puis de proposer une méthode statistique de comparaison permettant d'améliorer l'objectivité et la transparence lors de la prise de décision. Une méthode de comparaison basée sur la corrélation entre les spectres est proposée, et ensuite combinée à une évaluation Bayesienne de l'élément de preuve au niveau de la source et au niveau de l'activité. Finalement des exemples pratiques sont présentés et la méthodologie est discutée afin de définir le rôle précis de l'expert et des statistiques dans la procédure globale d'analyse des peintures. -- Infrared spectroscopy (FTIR) is a technique of choice for analyzing spray paint speciments (i.e. traces) and reference samples (i.e. cans seized from suspects) due to its high discriminating power, sensitivity and sampling possibilities. The comparison of the spectra is currently carried out visually, but this procedure has limitations such as the subjectivity in the decision due to its dependency on the experience and training of the expert. This implies that small differences in the relative intensity of two peaks can be perceived differently by experts, even between analysts working in the same laboratory. When it comes to justifying these differences, some will explain them by the analytical technique, while others will estimate that the observed differences are mostly due to an intrinsic variability from the paint sample and/or its acquired characteristics (for example homogeneity, spraying, or degradation). This work proposes to statistically study the different sources of variability observed in infrared spectra, to identify them, understand them and try to minimize them. The second goal is to propose a procedure for spectra comparison that is more transparent, and allows obtaining reproducible answers being independent from the expert. The first part of the manuscript focuses on the optimization of infrared measurement and on the main analytical parameters. The necessary conditions to obtain reproducible spectra with a minimized variation within a sample (intra-variability) are presented. Following that a procedure of spectral correction is then proposed using pretreatments and variable selection methods, in order to minimize systematic and random errors, and increase simultaneously relevant chemical information. The second part presents a market study of 74 spray paints representative of the Swiss market. The discrimination capabilities of FTIR at the brand and model level are evaluated by means of visual and statistical procedures. The inferior limits of discrimination are tested on paints coming from the same brand and model, but from different production batches. The results showed that the pigment composition was particularly discriminatory, because of the corrections and adjustments made to the paint color during its manufacturing process. The features associated with spray paint traces (graffitis, droplets) were also tested. Three elements were identified and their influence on the resulting infrared spectra were tested: 1) the minimum shaking time necessary to obtain a sufficient homogeneity of the paint and subsequently of the painted surface, 2) the degradation initiated by ultraviolet radiation in an exterior environment, and 3) the contamination from the support when paint is recovered. Finally a population study was performed on 35 graffitis coming from the city of Lausanne and surroundings areas, and the results were compared to the previous market study of spray cans. The last part concentrated on the decision process during the pairwise comparison of spectra. First, an understanding of the actual practice among laboratories was initiated by submitting a questionnaire. Then, a proposition for a statistical method of comparison was advanced to improve the objectivity and transparency during the decision process. A method of comparison based on the correlation between spectra is proposed, followed by the integration into a Bayesian framework at both source and activity levels. Finally, some case examples are presented and the recommended methodology is discussed in order to define the role of the expert as well as the contribution of the tested statistical approach within a global analytical sequence for paint examinations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

^Raduolarians constitute a good tool for contributing to the biostratigraphy of accreted terranes and in deep-sea sediment sequences. The use of radiolarians is also proven to be valuable as a palaeoceanographic indicator. The present study evaluates radiolarians in three different geological settings, in order to better constrain the age of the sites and to try to understand their palaeoenvironmental situation at different periods, particularly in the Caribbean-Central America area. On the Jarabacoa Block, in Central Dominican Republic, a hundred meters of siliceous mudstones (Pedro Brand section in the Tireo Group) was dated as Turonian- Coniancian in age using radiolarians. A 40Ar-39Ar whole rock age of 75.1±1.1 Ma (Campanian), obtained in a basalt dyke crosscutting the radiolarian bearing rocks, a consistent minimum age for the pelagic-hemipelagic Pedro Brand section. The Jarabacoa Block is considered as the most complete outcrop section of Pacific ocean crust overlain by a first Aptian-Albian phase of Caribbean Large Igneous Province-type activity (CLIP), followed by the development of a Cenomanian-Santonian intraoceanic arc, which is in turn overlain by a late Campanian-Maastrichtian CLIP-phase. The Tireo Group records an episode of pelagic to hemi-pelagic and intermediate to acidic arc-derived sedimentation, previous to the youngest magmatic phase of the CLIP. Thus, the section of Pedro Brand has been interpreted in this study as being part of the intraoceanic arc. In northern Venezuela, a greenish radiolarite section from Siquisique Ophiolite (basalts, gabbros and some associated cherts) in Guaparo Creek has been studied. In previous studies, the Ophiolite unit (Petacas Creek section) has been dated as Bajocian-Bathonian, based on ammonites present in interpillow sediments from basalt blocks. New dating of the present study concluded in an Aptian?-Albian-Cenomanian age for the Guaparo creek section (middle Cretaceous), based on radiolarian assemblage associated to basalts-gabbros rocks of the unit. Previous plagioclase 40Ar-39Ar ages from the Siquisuique Ophiolite may be slightly younger (94-90 Ma.) and may, therefore, represent younger dykes that intruded onto a well-developed sheeted dyke complex of the Siquisique. The geochemistry of these rocks and the palaeotectonic reconstruction of the Caribbean area during this period suggest that these rocks were derived from a mid-ocean ridge with an influence of deep mantle plume. The Siquisique Ophiolite most probably represents a fragment of the proto-Caribbean basin. The Integrated Ocean Drilling Program Expedition 344 drilled a transect across the convergent margin off Costa Rica. Two sites of this expedition were chosen for radiolarian biostratigraphy and palaeoceanographic studies. Both sites (U1381C and U1414A) are located in the incoming Cocos plate, in the eastern Equatorial Pacific. The succession of U1381C yields a Middle Miocene to Pleistocene age, and presents an important hiatus of approximately 10 Ma. The core of U1414A exposes a continuous sequence that deposited during Late Miocene to Pleistocene (radiolarian zones RN6-RN16). The ages were assigned based on radiolarians and correlated with nannofossil zonation and tephra 40Ar-39Ar datation. With those results, and considering the northward movement of the Cocos plate motion (about 7 cm/year), deduction is made that the sites U1381C and U1414A were initially deposited during the Miocene, several hundreds of kilometres from the current location, slightly south of the Equator. This suggests that the faunas of these sites have been subjected to different currents, first influenced by the cold tongue of the South Equatorial Current and followed by the warm Equatorial Countercurrent. At last, coastal upwelling influenced faunas of the Pleistocene. -- Les radiolaires sont considérés comme un outil utile à la biostratigraphie des terrains accrétés et des sédiments profonds. Leur utilité est aussi prouvée comme étant remarquable au niveau des reconstructions paléocéanographiques. La présente étude évalue l'importance et la présence des radiolaires de trois localités géologiquement différentes d'Amérique Centrale-Caraïbes, dans le but d'améliorer les model d'âges et de mieux comprendre la situation paléoenvironnementale à travers le temps. Dans le Bloque de Jarabacoa, au centre de la République Dominicaine, une section de cent mètres (section de Pedro Brand, Groupe de Tireo) a été datée comme faisant partie du Turonien-Santonien, en utilisant les radiolaires. Une datation 40Ar-39Ar sur roche totale de 75±1.1 Ma (Campanien) a été obtenu pour vin dyke traversant les sédiments riches en radiolaires, en cohérence avec l'âge minimum accordé à la section de Pedro Brand. Aux Caraïbes, le Bloque de Jarabacoa est considéré comme l'affleurement le plus complet présentant une succession de croûte océanique d'origine Pacifique recouverte d'une première phase d'activité volcanique de type CLIP (Caribbean Large Igneous Province) d'âge Aptien- Albien, de dépôts d'arc volcanique intra-océanique d'âge Cénomanien-Santonien, puis d'une seconde phase de type CLIP d'âge Campanien-Maastrichtien. Le Groupe de Tireo enregistre un épisode de dépôt pélagiques-hémipélagiques et d'arc volcanique, antérieur à la plus jeune phase de type CLIP. Cette étude place donc la formation de la section de Pedro Brand au moment du développement de l'arc intra-océanique. A Guaparo Creek (nord du Vénézuela), une section de radiolarite verdâtre faisant partie des ophiolites de Siquisique (basaltes, gabbros, cherts) a été étudiée. Dans des études précédentes, sur la localité de Petacas Creek, l'unité ophiolitique a été daté d'âge Bajocien- Bathonien (Jurassique) sur la base d'ammonites trouvées dans des sédiments intercalés entre des laves en coussins. Les nouvelles datations de notre étude, basées sur des assemblages à radiolaires de l'unité à basaltes-gabbros, donnent un âge Aptien?-Albien-Cénomanien (Crétacé moyen). Les âges de l'Ophiolite de Siquisique, précédement calculés par la méthode sur plagioclases, pourraient être légèrement plus jeune (94-90 Ma) et donc représenter des intrusions plus récentes de dykes dans le complexe filonien déjà bien dévelopé. La géochimie de ces roches magmatiques, ainsi que les reconstructions paléotectoniques de la zone Caraïbes durant cette période, suggèrent que ces formations sont dérivées d'une ride médio-océanique associée à l'influence d'un panache mantellique. L'ophiolite de Siquisique représente très probablement un fragment du bassin de proto¬Caraïbe. L'expédition 344 du programme IODP (Integrated Ocean Drilling Program) a eu lieu dans l'optique de forer et dresser une coupe de la marge convergente au large du Costa Rica. Deux sites de cette expédition ont été choisis pour les besoins des études de biostratigraphie et de reconstruction paléocéanographique. Ces deux sites (U1381C et U1414A) sont situés sur la plaque subductante de Cocos, dans la zone Pacifique est-équatoriale. La carotte U1381C expose une séquence s'étalant du Miocène moyen au Pléistocène, et présente un important hiatus d'environ 10 Ma. La carotte U1414A expose une séquence continue s'étalant du Miocène tardif au Pléistocène (zone à radiolaires RN6-RN16). Les âges ont été assignés sur la base des radiolaires et corrélés avec les zones à nanofossiles et les datations 40Ar-39Ar sur téphras. Avec ces résultats, et en considérant le mouvement nord de la plaque de Cocos (environ 7 cm/an), déduction est faite que les deux sites étaient initialement situés, au cours du Miocène, à plusieurs centaines de kilomètres de leur location actuelle, au sud de l'équateur. Cela suggère que les faunes de ces sites ont été sujettes à différents courants; premièrement influencées par la langue froide du SEC (South Equatorial Current), puis par les eaux chaudes du ECC (Equatorial Countercurrent). Pour terminer, les remontées d'eau côtières ont influencées les faunes Pléistocène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Les yeux sont du visage humain la partie la plus noble et la plus importante, les yeux sont composés de corps, d'âme et d'esprit, ou plutôt les yeux sont la fenêtre où l'âme et l'esprit viennent se montrer » (Alphonse Karr, 1853). L'oeil est le regard, mais pour l'ophtalmologue il est aussi une fenêtre ouverte et un regard possible sur le reste du corps. Prolongement du système nerveux central en contact direct avec le monde extérieur dont il est l'un des « senseurs » le plus subtil et le plus complexe, il est sujet à des réactions inflammatoires, allergiques et toxiques chez l'enfant et chez l'adulte. Alors que notre environnement visuel change (modification des systèmes d'éclairage domestique dans les villes, écrans, mode de vie et habitudes de travail), que les polluants se multiplient et se combinent et que les environnements climatisés deviennent la règle, le nombre de patients souffrant de pathologies de la surface oculaire atteint 30 % des motifs de nos consultations et le nombre des patients myopes est en hausse. L'oeil est l'un des « senseurs » le plus subtil et le plus complexe Si la surface oculaire peut aussi être le témoin des pathologies systémiques, c'est la rétine qui en est plus fréquemment le reflet. Les atteintes du lit vasculaire, du nerf optique ou de la rétine peuvent être des manifestations de pathologies générales ou d'effets secondaires ou toxiques de médicaments. L'examen du fond d'oeil et la rétinophotographie restent les examens de dépistage de référence en particulier pour la rétinopathie diabétique, véritable fléau mondial et première cause de cécité dans les pays industrialisés chez les jeunes adultes. Mais ce n'est que par la collaboration entre ophtalmologues, médecins traitants et autres spécialistes que les pathologies rétiniennes peuvent être prises en charge de façon optimale pour qu'à des traitements oculaires spécifiques soit associée la prise en charge globale des maladies causales ou interférentes. Au-delà du fond d'oeil, les progrès technologiques contribuent au développement de multiples méthodes d'exploration des différentes structures de l'oeil offrant ainsi la possibilité d'utiliser l'oeil comme témoin de manifestations précoces de maladies neurologiques périphériques ou centrales. L'imagerie cornéenne semble aujourd'hui capable de révéler et de suivre de façon longitudinale la neuropathie diabétique périphérique et il n'est pas impossible que la rétine devienne le site de détection précoce de la maladie d'Alzheimer. Sur le plan de la prise en charge, l'ophtalmologue ne peut pas se contenter de traiter l'oeil, il doit aussi assurer une prise en charge pluridisciplinaire et accompagner le patient qui, perdant la vision, est sujet à la dépression et à la majoration de tout autre handicap. La perte visuelle est le handicap le plus redouté des populations et la perte d'autonomie qu'il induit limite l'observance et le suivi thérapeutique (comparable en termes de gravité ressentie à un « alitement brutal dans les suites d'un AVC »). La médecine personnalisée et les interactions multidisciplinaires prennent ici tout leur sens. Les développements thérapeutiques ont été majeurs ces dernières années et la cécité n'est plus une fatalité, au moins dans certains cas. Mais la rétine étant un tissu nerveux post-mitotique, les traitements et donc le dépistage doivent être précoces pour prévenir la perte visuelle irréversible. Spécifiquement, les espoirs lointains comme la thérapie génique entrent dans les essais cliniques laissant entrevoir la lumière au bout du tunnel. A portée de vue, la rétine artificielle constitue une avancée concrète, encore perfectible mais accessible dès aujourd'hui. Si les progrès sont manifestes dans le domaine de l'ophtalmologie, il reste encore beaucoup à apprendre et à comprendre en particulier dans les mécanismes pathogéniques multifactoriels des maladies oculaires plus fréquentes. Seule une exploration approfondie des maladies humaines pourra nous permettre de mieux appréhender de nouvelles stratégies thérapeutiques. Comme le disait André Isaac (1893-1975), pour voir loin, il faut regarder de près.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent article offre un aperçu systématique et complet de la littérature scientifique dédiée au domaine d'étude du marketing territorial et du branding territorial. 1172 contributions publiées entre 1976 et 2016 dans 98 revues différentes y sont analysées à l'aide d'un classement méticuleux dans des catégories et sous-catégories en fonction de l'approche disciplinaire, de la méthode utilisée et de la perspective adoptée. Cette revue de la littérature permet ainsi une vue d'ensemble détaillée de l'état de l'art et fait part des diverses tendances et évolutions concernant ce domaine d'étude en émergence. Elle atteste, entre autres, l'existence d'un flou conceptuel, de définitions divergentes et de faibles assises théoriques : ce qui contribue à un spectre très large d'objets d'étude. Un manque de preuves empiriques et de contributions à caractère explicatif est également observé : les nombreux postulats sur les effets des activités de marketing territorial par rapport à l'attractivité restent à démontrer. Elle souligne aussi un certain désintérêt de la littérature pour le contexte politico-institutionnel dans lequel les territoires s'inscrivent, pourtant crucial en termes de management public. Par ailleurs, ce travail souligne la place importante attribuée à la rhétorique des consultants, avec la publication d'une grande quantité de contributions normatives dans une optique de partage de bonnes pratiques. Pour finir, cette étude constate la présence d'un nombre significatif d'articles critiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le mélanome cutané est un des cancers les plus agressifs et dont l'incidence augmente le plus en Suisse. Une fois métastatique, le pronostic de survie moyenne avec les thérapies actuelles est d'environ huit mois, avec moins de 5% de survie à cinq ans. Les récents progrès effectués dans la compréhension de la biologie de la cellule tumorale mais surtout dans l'importance du système immunitaire dans le contrôle de ce cancer ont permis le développement de nouveaux traitements novateurs et prometteurs. Ces thérapies, appelées immunothérapies, reposent sur la stimulation et l'augmentation de la réponse immunitaire à la tumeur. Alors que les derniers essais cliniques ont démontré l'efficacité de ces traitements chez les patients avec des stades avancés de la maladie, le contrôle de la maladie à long- terme est seulement atteint chez une minorité des patients. La suppression locale et systémique de la réponse immunitaire spécifique anti-tumorale apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Des études sur les souris ont montré que les vaisseaux lymphatiques joueraient un rôle primordial dans ce processus en induisant une tolérance immune, ce qui permettrait à la tumeur d'échapper au contrôle du système immunitaire et métastatiser plus facilement. Ces excitantes découvertes n'ont pas encore été établi et prouvé chez l'homme. Dans cette thèse, nous montrons pour la première fois que les vaisseaux lymphatiques sont directement impliqués dans la modulation de la réponse immunitaire au niveau local et systémique dans le mélanome chez l'homme. Ces récentes découvertes montrent le potentiel de combiner des thérapies visant le système lymphatique avec les immunothérapies actuellement utilisées afin d'améliorer le pronostic des patients atteint du mélanome. -- Cutaneous melanoma is one of the most invasive and metastatic human cancers and causes 75% of skin cancer mortality. Current therapies such as surgery and chemotherapy fail to control metastatic disease, and relapse occurs frequently due to microscopic residual lesions. It is, thus, essential to develop and optimize novel therapeutic strategies to improve curative responses in these patients. In recent decades, tumor immunologists have revealed the development of spontaneous adaptive immune responses in melanoma patients, leading to the accumulation of highly differentiated tumor-specific T cells at the tumor site. This remains one of the most powerful prognostic markers to date. Immunotherapies that augment the natural function of these tumor-specific T cells have since emerged as highly attractive therapeutic approaches to eliminate melanoma cells. While recent clinical trials have demonstrated great progress in the treatment of advanced stage melanoma, long-term disease control is still only achieved in a minority of patients. Local and systemic immune suppression by the tumor appears to be responsible, in part, for this poor clinical evolution. These facts underscore the need for a better analysis and characterization of immune- related pathways within the tumor microenvironment (TME), as well as at the systemic level. The overall goal of this thesis is, thus, to obtain greater insight into the complexity and heterogeneity of the TME in human melanoma, as well as to investigate immune modulation beyond the TME, which ultimately influences the immune system throughout the whole body. To achieve this, we established two main objectives: to precisely characterize local and systemic immune modulation (i) in untreated melanoma patients and (ii) in patients undergoing peptide vaccination or checkpoint blockade therapy with anti-cytotoxic T- lymphocyte-asisctaed protein-4 (CTLA-4) antibody. In the first and main part of this thesis, we analyzed lymphatic vessels in relation to anti-tumor immune responses in tissues from vaccinated patients using a combination of immunohistochemistry (IHC) techniques, whole slide scanning/analysis, and an automatic quantification system. Strikingly, we found that increased lymphatic vessel density was associated with high expression of immune suppressive molecules, low functionality of tumor-infiltrating CD8+ T cells and decreased cytokine production by tumor-antigen specific CD8+ T cells in the blood. These data revealed a previously unappreciated local and systemic role of lymphangiogenesis in modulating T cell responses in human cancer and support the use of therapies that target lymphatic vessels combined with existing and future T cell based therapies. In the second objective, we describe a metastatic melanoma patient who developed pulmonary sarcoid-like granulomatosis following repetitive vaccination with peptides and CpG. We demonstrated that the onset of this pulmonary autoimmune adverse event was related to the development of a strong and long-lasting tumor-specific CD8+ T cell response. This constitutes the first demonstration that a new generation tumor vaccine can induce the development of autoimmune adverse events. In the third objective, we assessed the use of Fourier Transform Infrared (FTIR) imaging to identify melanoma cells and lymphocyte subpopulations in lymph node (LN) metastasis tissues, thanks to a fruitful collaboration with researchers in Brussels. We demonstrated that the different cell types in metastatic LNs have different infrared spectral features allowing automated identification of these cells. This technic is therefore capable of distinguishing known and novel biological features in human tissues and has, therefore, significant potential as a tool for histopathological diagnosis and biomarker assessment. Finally, in the fourth objective, we investigated the role of colony- stimulating factor-1 (CSF-1) in modulating the anti-tumor response in ipilimumab-treated patients using IHC and in vitro co-cultures, revealing that melanoma cells produce CSF-1 via CTL-derived cytokines when attacked by cytotoxic T lymphocytes (CTLs), resulting in the recruitment of immunosuppressive monocytes. These findings support the combined use of CSF-1R blockade with T cell based immunotherapy for melanoma patients. Taken together, our results reveal the existence of novel mechanisms of immune modulation and thus promote the optimization of combination immunotherapies against melanoma. -- Le mélanome cutané est un des cancers humains les plus invasifs et métastatiques et est responsable de 75% de la mortalité liée aux cancers de la peau. Les thérapies comme la chirurgie et la chimiothérapie ont échoué à contrôler le mélanome métastatique, par ailleurs les rechutes sous ces traitements ont été montrées fréquentes. Il est donc essentiel de développer et d'optimiser de nouvelles stratégies thérapeutiques pour améliorer les réponses thérapeutiques de ces patients. Durant les dernières décennies, les immunologistes spécialisés dans les tumeurs ont démontré qu'un patient atteint du mélanome pouvait développer spontanément une réponse immune adaptative à sa tumeur et que l'accumulation de cellules T spécifiques tumorales au sein même de la tumeur était un des plus puissants facteurs pronostiques. Les immunothérapies qui ont pour but d'augmenter les fonctions naturelles de ces cellules T spécifiques tumorales ont donc émergé comme des approches thérapeutiques très attractives pour éliminer les cellules du mélanome. Alors que les derniers essais cliniques ont démontré un progrès important dans le traitement des formes avancées du mélanome, le contrôle de la maladie à long-terme est seulement atteint chez une minorité des patients. La suppression immune locale et systémique apparaitrait comme une des raisons expliquant la persistance d'un mauvais pronostic clinique chez ces patients. Ces considérations soulignent la nécessité de mieux analyser et caractériser les voies immunitaires non seulement au niveau local dans le microenvironement tumoral mais aussi au niveau systémique dans le sang des patients. Le but de cette thèse est d'obtenir une plus grande connaissance de la complexité et de l'hétérogénéité du microenvironement tumoral dans les mélanomes mais aussi d'investiguer la modulation immunitaire au delà du microenvironement tumoral au niveau systémique. Afin d'atteindre ce but, nous avons établi deux objectifs principaux : caractériser précisément la modulation locale et systémique du système immunitaire (i) chez les patients atteints du mélanome qui n'ont pas reçu de traitement et (ii) chez les patients qui ont été traités soit par des vaccins soit par des thérapies qui bloquent les points de contrôles. Dans la première et majeure partie de cette thèse, nous avons analysé les vaisseaux lymphatiques en relation avec la réponse immunitaire anti-tumorale dans les tissus des patients vaccinés grâce à des techniques d'immunohistochimie et de quantification informatisé et automatique des marquages. Nous avons trouvé qu'une densité élevée de vaisseaux lymphatiques dans la tumeur était associée à une plus grande expression de molécules immunosuppressives ainsi qu'à une diminution de la fonctionnalité des cellules T spécifiques tumoral dans la tumeur et dans le sang des patients. Ces résultats révèlent un rôle jusqu'à là inconnu des vaisseaux lymphatiques dans la modulation directe du système immunitaire au niveau local et systémique dans les cancers de l'homme. Cette recherche apporte finalement des preuves du potentiel de combiner des thérapies visant le système lymphatique avec des autres immunothérapies déjà utilisées en clinique. Dans le second objectif, nous rapportons le cas d'un patient atteint d'un mélanome avec de multiples métastases qui a développé à la suite de plusieurs vaccinations répétées et consécutives avec des peptides et du CpG, un évènement indésirable sous la forme d'une granulomatose pulmonaire sarcoid-like. Nous avons démontré que l'apparition de cet évènement était intimement liée au développement d'une réponse immunitaire durable et spécifique contre les antigènes de la tumeur. Par là- même, nous prouvons pour la première fois que la nouvelle génération de vaccins est aussi capable d'induire des effets indésirables auto-immuns. Pour le troisième objectif, nous avons voulu savoir si l'utilisation de la spectroscopie infrarouge à transformée de Fourier (IRTF) était capable d'identifier les cellules du mélanome ainsi que les différents sous-types cellulaires dans les ganglions métastatiques. Grâce à nos collaborateurs de Bruxelles, nous avons pu établir que les diverses composantes cellulaires des ganglions atteints par des métastases du mélanome présentaient des spectres infrarouges différents et qu'elles pouvaient être identifiées d'une façon automatique. Cette nouvelle technique permettrait donc de distinguer des caractéristiques biologiques connues ou nouvelles dans les tissus humains qui auraient des retombées pratiques importantes dans le diagnostic histopathologique et dans l'évaluation des biomarqueurs. Finalement dans le dernier objectif, nous avons investigué le rôle du facteur de stimulation des colonies (CSF-1) dans la modulation de la réponse immunitaire anti-tumorale chez les patients qui ont été traités par l'Ipilimumab. Nos expériences in vivo au niveau des tissus tumoraux et nos co-cultures in vitro nous ont permis de démontrer que les cytokines secrétées par les cellules T spécifiques anti-tumorales induisaient la sécrétion de CSF-1 dans les cellules du mélanome ce qui résultait en un recrutement de monocytes immunosuppresseurs. Dans son ensemble, cette thèse révèle donc l'existence de nouveaux mécanismes de modulation de la réponse immunitaire anti-tumorale et propose de nouvelles optimisations de combinaison d'immunothérapies contre le mélanome.