581 resultados para Environnement institutionnel
Resumo:
Engineered nanomaterials (ENMs) exhibit special physicochemical properties and thus are finding their way into an increasing number of industries, enabling products with improved properties. Their increased use brings a greater likelihood of exposure to the nanoparticles (NPs) that could be released during the life cycle of nano-abled products. The field of nanotoxicology has emerged as a consequence of the development of these novel materials, and it has gained ever more attention due to the urgent need to gather information on exposure to them and to understand the potential hazards they engender. However, current studies on nanotoxicity tend to focus on pristine ENMs, and they use these toxicity results to generalize risk assessments on human exposure to NPs. ENMs released into the environment can interact with their surroundings, change characteristics and exhibit toxicity effects distinct from those of pristine ENMs. Furthermore, NPs' large surface areas provide extra-large potential interfaces, thus promoting more significant interactions between NPs and other co-existing species. In such processes, other species can attach to a NP's surface and modify its surface functionality, in addition to the toxicity in normally exhibits. One particular occupational health scenario involves NPs and low-volatile organic compounds (LVOC), a common type of pollutant existing around many potential sources of NPs. LVOC can coat a NP's surface and then dominate its toxicity. One important mechanism in nanotoxicology is the creation of reactive oxygen species (ROS) on a NP's surface; LVOC can modify the production of these ROS. In summary, nanotoxicity research should not be limited to the toxicity of pristine NPs, nor use their toxicity to evaluate the health effects of exposure to environmental NPs. Instead, the interactions which NPs have with other environmental species should also be considered and researched. The potential health effects of exposure to NPs should be derived from these real world NPs with characteristics modified by the environment and their distinct toxicity. Failure to suitably address toxicity results could lead to an inappropriate treatment of nano- release, affect the environment and public health and put a blemish on the development of sustainable nanotechnologies as a whole. The main objective of this thesis is to demonstrate a process for coating NP surfaces with LVOC using a well-controlled laboratory design and, with regard to these NPs' capacity to generate ROS, explore the consequences of changing particle toxicity. The dynamic coating system developed yielded stable and replicable coating performance, simulating an important realistic scenario. Clear changes in the size distribution of airborne NPs were observed using a scanning mobility particle sizer, were confirmed using both liquid nanotracking analyses and transmission electron microscopy (TEM) imaging, and were verified thanks to the LVOC coating. Coating thicknesses corresponded to the amount of coating material used and were controlled using the parameters of the LVOC generator. The capacity of pristine silver NPs (Ag NPs) to generate ROS was reduced when they were given a passive coating of inert paraffin: this coating blocked the reactive zones on the particle surfaces. In contrast, a coating of active reduced-anthraquinone contributed to redox reactions and generated ROS itself, despite the fact that ROS generation due to oxidation by Ag NPs themselves was quenched. Further objectives of this thesis included development of ROS methodology and the analysis of ROS case studies. Since the capacity of NPs to create ROS is an important effect in nanotoxicity, we attempted to refine and standardize the use of 2'7-dichlorodihydrofluorescin (DCFH) as a chemical tailored for the characterization of NPs' capacity for ROS generation. Previous studies had reported a wide variety of results, which were due to a number of insufficiently well controlled factors. We therefore cross-compared chemicals and concentrations, explored ways of dispersing NP samples in liquid solutions, identified sources of contradictions in the literature and investigated ways of reducing artificial results. The most robust results were obtained by sonicating an optimal sample of NPs in a DCFH-HRP solution made of 5,M DCFH and 0.5 unit/ml horseradish peroxidase (HRP). Our findings explained how the major reasons for previously conflicting results were the different experimental approaches used and the potential artifacts appearing when using high sample concentrations. Applying our advanced DCFH protocol with other physicochemical characterizations and biological analyses, we conducted several case studies, characterizing aerosols and NP samples. Exposure to aged brake wear dust engenders a risk of potential deleterious health effects in occupational scenarios. We performed microscopy and elemental analyses, as well as ROS measurements, with acellular and cellular DCFH assays. TEM images revealed samples to be heterogeneous mixtures with few particles in the nano-scale. Metallic and non-metallic elements were identified, primarily iron, carbon and oxygen. Moderate amounts of ROS were detected in the cell-free fluorescent tests; however, exposed cells were not dramatically activated. In addition to their highly aged state due to oxidation, the reason aged brake wear samples caused less oxidative stress than fresh brake wear samples may be because of their larger size and thus smaller relative reactive surface area. Other case studies involving welding fumes and differently charged NPs confirmed the performance of our DCFH assay and found ROS generation linked to varying characteristics, especially the surface functionality of the samples. Les nanomatériaux manufacturés (ENM) présentent des propriétés physico-chimiques particulières et ont donc trouvés des applications dans un nombre croissant de secteurs, permettant de réaliser des produits ayant des propriétés améliorées. Leur utilisation accrue engendre un plus grand risque pour les êtres humains d'être exposés à des nanoparticules (NP) qui sont libérées au long de leur cycle de vie. En conséquence, la nanotoxicologie a émergé et gagné de plus en plus d'attention dû à la nécessité de recueillir les renseignements nécessaires sur l'exposition et les risques associés à ces nouveaux matériaux. Cependant, les études actuelles sur la nanotoxicité ont tendance à se concentrer sur les ENM et utiliser ces résultats toxicologiques pour généraliser l'évaluation des risques sur l'exposition humaine aux NP. Les ENM libérés dans l'environnement peuvent interagir avec l'environnement, changeant leurs caractéristiques, et montrer des effets de toxicité distincts par rapport aux ENM originaux. Par ailleurs, la grande surface des NP fournit une grande interface avec l'extérieur, favorisant les interactions entre les NP et les autres espèces présentes. Dans ce processus, d'autres espèces peuvent s'attacher à la surface des NP et modifier leur fonctionnalité de surface ainsi que leur toxicité. Un scénario d'exposition professionnel particulier implique à la fois des NP et des composés organiques peu volatils (LVOC), un type commun de polluant associé à de nombreuses sources de NP. Les LVOC peuvent se déposer sur la surface des NP et donc dominer la toxicité globale de la particule. Un mécanisme important en nanotoxicologie est la création d'espèces réactives d'oxygène (ROS) sur la surface des particules, et les LVOC peuvent modifier cette production de ROS. En résumé, la recherche en nanotoxicité ne devrait pas être limitée à la toxicité des ENM originaux, ni utiliser leur toxicité pour évaluer les effets sur la santé de l'exposition aux NP de l'environnement; mais les interactions que les NP ont avec d'autres espèces environnementales doivent être envisagées et étudiées. Les effets possibles sur la santé de l'exposition aux NP devraient être dérivés de ces NP aux caractéristiques modifiées et à la toxicité distincte. L'utilisation de résultats de toxicité inappropriés peut conduire à une mauvaise prise en charge de l'exposition aux NP, de détériorer l'environnement et la santé publique et d'entraver le développement durable des industries de la nanotechnologie dans leur ensemble. L'objectif principal de cette thèse est de démontrer le processus de déposition des LVOC sur la surface des NP en utilisant un environnement de laboratoire bien contrôlé et d'explorer les conséquences du changement de toxicité des particules sur leur capacité à générer des ROS. Le système de déposition dynamique développé a abouti à des performances de revêtement stables et reproductibles, en simulant des scénarios réalistes importants. Des changements clairs dans la distribution de taille des NP en suspension ont été observés par spectrométrie de mobilité électrique des particules, confirmé à la fois par la méthode dite liquid nanotracking analysis et par microscopie électronique à transmission (MET), et a été vérifié comme provenant du revêtement par LVOC. La correspondance entre l'épaisseur de revêtement et la quantité de matériau de revêtement disponible a été démontré et a pu être contrôlé par les paramètres du générateur de LVOC. La génération de ROS dû aux NP d'argent (Ag NP) a été diminuée par un revêtement passif de paraffine inerte bloquant les zones réactives à la surface des particules. Au contraire, le revêtement actif d'anthraquinone réduit a contribué aux réactions redox et a généré des ROS, même lorsque la production de ROS par oxydation des Ag NP avec l'oxygène a été désactivé. Les objectifs associés comprennent le développement de la méthodologie et des études de cas spécifique aux ROS. Etant donné que la capacité des NP à générer des ROS contribue grandement à la nanotoxicité, nous avons tenté de définir un standard pour l'utilisation de 27- dichlorodihydrofluorescine (DCFH) adapté pour caractériser la génération de ROS par les NP. Des etudes antérieures ont rapporté une grande variété de résultats différents, ce qui était dû à un contrôle insuffisant des plusieurs facteurs. Nous avons donc comparé les produits chimiques et les concentrations utilisés, exploré les moyens de dispersion des échantillons HP en solution liquide, investigué les sources de conflits identifiées dans les littératures et étudié les moyens de réduire les résultats artificiels. De très bon résultats ont été obtenus par sonication d'une quantité optimale d'échantillons de NP en solution dans du DCFH-HRP, fait de 5 nM de DCFH et de 0,5 unité/ml de Peroxydase de raifort (HRP). Notre étude a démontré que les principales raisons causant les conflits entre les études précédemment conduites dans la littérature étaient dues aux différentes approches expérimentales et à des artefacts potentiels dus à des concentrations élevées de NP dans les échantillons. Utilisant notre protocole DCFH avancé avec d'autres caractérisations physico-chimiques et analyses biologiques, nous avons mené plusieurs études de cas, caractérisant les échantillons d'aérosols et les NP. La vielle poussière de frein en particulier présente un risque élevé d'exposition dans les scénarios professionnels, avec des effets potentiels néfastes sur la santé. Nous avons effectué des analyses d'éléments et de microscopie ainsi que la mesure de ROS avec DCFH cellulaire et acellulaire. Les résultats de MET ont révélé que les échantillons se présentent sous la forme de mélanges de particules hétérogènes, desquels une faible proportion se trouve dans l'échelle nano. Des éléments métalliques et non métalliques ont été identifiés, principalement du fer, du carbone et de l'oxygène. Une quantité modérée de ROS a été détectée dans le test fluorescent acellulaire; cependant les cellules exposées n'ont pas été très fortement activées. La raison pour laquelle les échantillons de vielle poussière de frein causent un stress oxydatif inférieur par rapport à la poussière de frein nouvelle peut-être à cause de leur plus grande taille engendrant une surface réactive proportionnellement plus petite, ainsi que leur état d'oxydation avancé diminuant la réactivité. D'autres études de cas sur les fumées de soudage et sur des NP différemment chargées ont confirmé la performance de notre test DCFH et ont trouvé que la génération de ROS est liée à certaines caractéristiques, notamment la fonctionnalité de surface des échantillons.
Resumo:
The term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. In natural settings, a sound produced by a living being or an object provides information about the identity and the location of the sound source. Sound's identity is orocessed alono the ventral "What" pathway which consists of regions within the superior and middle temporal cortices as well as the inferior frontal gyrus. This work concerns the creation of individual auditory object representations in narrow semantic categories and their plasticity using electrical imaging. Discrimination of sounds from broad category has been shown to occur along a temporal hierarchy and in different brain regions along the ventral "What" pathway. However, sounds belonging to the same semantic category, such as faces or voices, were shown to be discriminated in specific brain areas and are thought to represent a special class of stimuli. I have investigated how cortical representations of a narrow category, here birdsongs, is modulated by training novices to recognized songs of individual bird species. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory ventral "What" pathway as a function of the level of expertise newly acquired. Correct recognition of trained items induces a sharpening within a left-lateralized semantic network starting around 200ms, whereas untrained items' processing occurs later in lower-level and memory-related regions. With another category of sounds belonging to the same category, here heartbeats, I investigated the cortical representations of correct and incorrect recognition of sounds. Source estimations revealed differential representations partially overlapping with regions involved in the semantic network that is activated when participants became experts in the task. Incorrect recognition also induces a higher activation when compared to correct recognition in regions processing lower-level features. The discrimination of heartbeat sounds is a difficult task and requires a continuous listening. I investigated whether the repetition effects are modulated by participants' behavioral performance. Dynamic source estimations revealed repetition suppression in areas located outside of the semantic network. Therefore, individual environmental sounds become meaningful with training. Their representations mainly involve a left-lateralized network of brain regions that are tuned with expertise, as well as other brain areas, not related to semantic processing, and occurring in early stages of semantic processing. -- Le terme objet sonore" décrit une expérience auditive associée à un événement acoustique produit par une source sonore. Dans l'environnement, un son produit par un être vivant ou un objet fournit des informations concernant l'identité et la localisation de la source sonore. Les informations concernant l'identité d'un son sont traitée le long de la voie ventrale di "Quoi". Cette voie est composée de regions situées dans le cortex temporal et frontal. L'objet de ce travail est d'étudier quels sont les neuro-mecanismes impliqués dans la représentation de nouveaux objets sonores appartenant à une meme catégorie sémantique ainsi que les phénomènes de plasticité à l'aide de l'imagerie électrique. Il a été montré que la discrimination de sons appartenant à différentes catégories sémantiques survient dans différentes aires situées le long la voie «Quoi» et suit une hiérarchie temporelle II a également été montré que la discrimination de sons appartenant à la même catégorie sémantique tels que les visages ou les voix, survient dans des aires spécifiques et représenteraient des stimuli particuliers. J'ai étudié comment les représentations corticales de sons appartenant à une même catégorie sémantique, dans ce cas des chants d'oiseaux, sont modifiées suite à un entraînement Pour ce faire, des sujets novices ont été entraînés à reconnaître des chants d'oiseaux spécifiques L'analyse des estimations des sources neuronales au cours du temps a montré que les representations des objets sonores activent de manière différente des régions situées le long de la vo,e ventrale en fonction du niveau d'expertise acquis grâce à l'entraînement. La reconnaissance des chants pour lesquels les sujets ont été entraînés implique un réseau sémantique principalement situé dans l'hémisphère gauche activé autour de 200ms. Au contraire, la reconnaissance des chants pour lesquels les sujets n'ont pas été entraînés survient plus tardivement dans des régions de plus bas niveau. J'ai ensuite étudié les mécanismes impliqués dans la reconnaissance et non reconnaissance de sons appartenant à une autre catégorie, .es battements de coeur. L'analyse des sources neuronales a montre que certaines régions du réseau sémantique lié à l'expertise acquise sont recrutées de maniere différente en fonction de la reconnaissance ou non reconnaissance du son La non reconnaissance des sons recrute des régions de plus bas niveau. La discrimination des bruits cardiaques est une tâche difficile et nécessite une écoute continue du son. J'ai étudié l'influence des réponses comportementales sur les effets de répétitions. L'analyse des sources neuronales a montré que la reconnaissance ou non reconnaissance des sons induisent des effets de repétition différents dans des régions situées en dehors des aires du réseau sémantique. Ainsi, les sons acquièrent un sens grâce à l'entraînement. Leur représentation corticale implique principalement un réseau d'aires cérébrales situé dans l'hémisphère gauche, dont l'activité est optimisée avec l'acquisition d'un certain niveau d'expertise, ainsi que d'autres régions qui ne sont pas liée au traitement de l'information sémantique. L'activité de ce réseau sémantique survient plus rapidemement que la prédiction par le modèle de la hiérarchie temporelle.
Resumo:
Since the discovery of hypocretins/orexins (Hcrt/Ox) in 1998, several narcoleptic mouse models, such as Hcrt-KO, Hcrtrl-KO, Hcrtr2-KO and double receptors KO mice, and orexin-ataxin transgenic mice were generated. The available Hcrt mouse models do not allow the dissection of the specific role of Hcrt in each target region. Dr. Anne Vassalli generated loxP-flanked alleles for each Hcrt receptor, which are manipulated by Cre recombinase to generate mouse lines with disrupted Hcrtrl or Hcrtr2 (or both) in cell type-specific manner. The role of noradrenaline (NA) and dopamine (OA) in ttie regulation of vigilance states is well documented. The purpose of this thesis is to explore the role of the Hcrt input into these two monoaminergic systems. Chronic loss of Hcrtrl in NA neurons consolidated paradoxical sleep (PS), and altered wakefulness brain activity in baseline, during the sleep deprivation (SD), and when mice were challenged by a novel environment, or exposed to nest-building material. The analysis of alterations in the sleep EEG delta power showed a consistent correlation with the changes in the preceding waking quality in these mice. Targeted inactivation of Hcrt input into DA neurons showed that Hcrtr2 inactivation present the strongest phenotype. The loss of Hcrtr2 in DA neurons caused modified brain activities in spontaneous wakefulness, during SD, and in novel environmental conditions. In addition to alteration of wakefulness quality and quantity, conditional inactivation of Hcrtr2 in DA neurons caused an increased in time spent in PS in baseline and a delayed and less complete PS recovery after SD. In the first 30 min of sleep recovery, single (i.e. for Hcrtrl or Hcrtr2) conditional knockout receptor mice had opposite changes in delta activity, including an increased power density in the fast delta range with specific inactivation of Hcrtr2, but a decreased power density in the same range with specific inactivation of Hcrtrl in DA cells. These studies demonstrate a complex impact of Hcrt receptors signaling in both NA and DA system, not only on quantity and quality of wakefulness, but also on PS amount regulation as well as on SWS delta power expression. -- Depuis la découverte des hypocrétines/orexines (Hcrt/Ox) en 1998, plusieurs modèles de souris, narcoleptiques telles que Hcrt-KO, Hcrtr2-KO et récepteurs doubles KO et les souris transgéniques orexine-ataxine ont été générés. Les modèles de souris Hcrt disponibles ne permettaient pas la dissection du rôle spécifique de l'Hcrt dans chaque noyau neuronal cible. Notre laboratoire a généré des allèles loxP pour chacun des 2 gènes codant pour les récepteurs Hcrtr, qui sont manipulés par recombinase Cre pour générer des lignées de souris avec Hcrtrl inactivé, ou Hcrtr2 inactivé, (ou les deux), spécifiquement dans un type cellulaire particulier. Le rôle de la noradrénaline (NA) et la dopamine (DA) dans la régulation des états de vigilance est bien documentée. Le but de cette thèse est d'étudier le rôle de l'afférence Hcrt dans ces deux systèmes monoaminergiques au niveau de l'activité cérébrale telle qu'elle apparaît dans l'électroencéphalogramme (EEG). Mon travail montre que la perte chronique de Hcrtrl dans les neurones NA consolide le sommeil paradoxal (PS), et l'activité cérébrale de l'éveil est modifiée en condition spontanée, au cours d'une experience de privation de sommeil (SD), et lorsque les souris sont présentées à un nouvel environnement, ou exposées à des matériaux de construction du nid. Ces modifications de l'éveil sont corrélées à des modifications de puissance de l'activité delta du sommeil lent qui le suit. L'inactivation ciblée des Hcrtrs dans les neurones DA a montré que l'inactivation Hcrtr2 conduit au phénotype le plus marqué. La perte de Hcrtr2 dans les neurones DA mène à des modification d'activité cérébrale en éveil spontané, pendant SD, ainsi que dans des conditions environnementales nouvelles. En plus de l'altération de la qualité de l'éveil et de la quantité, l'inactivation conditionnelle de Hcrtr2 dans les neurones DA a provoqué une augmentation du temps passé en sommeil paradoxal (PS) en condition de base, et une reprise retardée et moins complète du PS après SD. Dans les 30 premières minutes de la récupération de sommeil, les modèles inactivés pour un seul des récepteurs (ie pour Hcrtrl ou Hcrtr2 seulement) montrent des changements opposés en activité delta, en particulier une densité de puissance accrue dans le delta rapide avec l'inactivation spécifique de Hcrtr2, mais une densité de puissance diminuée dans cette même gamme chez les souris inactivées spécifiquement en Hcrtrl dans les neurones DA. Ces études démontrent un impact complexe de l'inactivation de la neurotransmission au niveau des récepteurs d'Hcrt dans les deux compartiments NA et DA, non seulement sur la quantité et la qualité de l'éveil, mais aussi sur la régulation de quantité de sommeil paradoxal, ainsi que sur l'expression de la puissance delta pendant le sommeil lent.
Resumo:
^Raduolarians constitute a good tool for contributing to the biostratigraphy of accreted terranes and in deep-sea sediment sequences. The use of radiolarians is also proven to be valuable as a palaeoceanographic indicator. The present study evaluates radiolarians in three different geological settings, in order to better constrain the age of the sites and to try to understand their palaeoenvironmental situation at different periods, particularly in the Caribbean-Central America area. On the Jarabacoa Block, in Central Dominican Republic, a hundred meters of siliceous mudstones (Pedro Brand section in the Tireo Group) was dated as Turonian- Coniancian in age using radiolarians. A 40Ar-39Ar whole rock age of 75.1±1.1 Ma (Campanian), obtained in a basalt dyke crosscutting the radiolarian bearing rocks, a consistent minimum age for the pelagic-hemipelagic Pedro Brand section. The Jarabacoa Block is considered as the most complete outcrop section of Pacific ocean crust overlain by a first Aptian-Albian phase of Caribbean Large Igneous Province-type activity (CLIP), followed by the development of a Cenomanian-Santonian intraoceanic arc, which is in turn overlain by a late Campanian-Maastrichtian CLIP-phase. The Tireo Group records an episode of pelagic to hemi-pelagic and intermediate to acidic arc-derived sedimentation, previous to the youngest magmatic phase of the CLIP. Thus, the section of Pedro Brand has been interpreted in this study as being part of the intraoceanic arc. In northern Venezuela, a greenish radiolarite section from Siquisique Ophiolite (basalts, gabbros and some associated cherts) in Guaparo Creek has been studied. In previous studies, the Ophiolite unit (Petacas Creek section) has been dated as Bajocian-Bathonian, based on ammonites present in interpillow sediments from basalt blocks. New dating of the present study concluded in an Aptian?-Albian-Cenomanian age for the Guaparo creek section (middle Cretaceous), based on radiolarian assemblage associated to basalts-gabbros rocks of the unit. Previous plagioclase 40Ar-39Ar ages from the Siquisuique Ophiolite may be slightly younger (94-90 Ma.) and may, therefore, represent younger dykes that intruded onto a well-developed sheeted dyke complex of the Siquisique. The geochemistry of these rocks and the palaeotectonic reconstruction of the Caribbean area during this period suggest that these rocks were derived from a mid-ocean ridge with an influence of deep mantle plume. The Siquisique Ophiolite most probably represents a fragment of the proto-Caribbean basin. The Integrated Ocean Drilling Program Expedition 344 drilled a transect across the convergent margin off Costa Rica. Two sites of this expedition were chosen for radiolarian biostratigraphy and palaeoceanographic studies. Both sites (U1381C and U1414A) are located in the incoming Cocos plate, in the eastern Equatorial Pacific. The succession of U1381C yields a Middle Miocene to Pleistocene age, and presents an important hiatus of approximately 10 Ma. The core of U1414A exposes a continuous sequence that deposited during Late Miocene to Pleistocene (radiolarian zones RN6-RN16). The ages were assigned based on radiolarians and correlated with nannofossil zonation and tephra 40Ar-39Ar datation. With those results, and considering the northward movement of the Cocos plate motion (about 7 cm/year), deduction is made that the sites U1381C and U1414A were initially deposited during the Miocene, several hundreds of kilometres from the current location, slightly south of the Equator. This suggests that the faunas of these sites have been subjected to different currents, first influenced by the cold tongue of the South Equatorial Current and followed by the warm Equatorial Countercurrent. At last, coastal upwelling influenced faunas of the Pleistocene. -- Les radiolaires sont considérés comme un outil utile à la biostratigraphie des terrains accrétés et des sédiments profonds. Leur utilité est aussi prouvée comme étant remarquable au niveau des reconstructions paléocéanographiques. La présente étude évalue l'importance et la présence des radiolaires de trois localités géologiquement différentes d'Amérique Centrale-Caraïbes, dans le but d'améliorer les model d'âges et de mieux comprendre la situation paléoenvironnementale à travers le temps. Dans le Bloque de Jarabacoa, au centre de la République Dominicaine, une section de cent mètres (section de Pedro Brand, Groupe de Tireo) a été datée comme faisant partie du Turonien-Santonien, en utilisant les radiolaires. Une datation 40Ar-39Ar sur roche totale de 75±1.1 Ma (Campanien) a été obtenu pour vin dyke traversant les sédiments riches en radiolaires, en cohérence avec l'âge minimum accordé à la section de Pedro Brand. Aux Caraïbes, le Bloque de Jarabacoa est considéré comme l'affleurement le plus complet présentant une succession de croûte océanique d'origine Pacifique recouverte d'une première phase d'activité volcanique de type CLIP (Caribbean Large Igneous Province) d'âge Aptien- Albien, de dépôts d'arc volcanique intra-océanique d'âge Cénomanien-Santonien, puis d'une seconde phase de type CLIP d'âge Campanien-Maastrichtien. Le Groupe de Tireo enregistre un épisode de dépôt pélagiques-hémipélagiques et d'arc volcanique, antérieur à la plus jeune phase de type CLIP. Cette étude place donc la formation de la section de Pedro Brand au moment du développement de l'arc intra-océanique. A Guaparo Creek (nord du Vénézuela), une section de radiolarite verdâtre faisant partie des ophiolites de Siquisique (basaltes, gabbros, cherts) a été étudiée. Dans des études précédentes, sur la localité de Petacas Creek, l'unité ophiolitique a été daté d'âge Bajocien- Bathonien (Jurassique) sur la base d'ammonites trouvées dans des sédiments intercalés entre des laves en coussins. Les nouvelles datations de notre étude, basées sur des assemblages à radiolaires de l'unité à basaltes-gabbros, donnent un âge Aptien?-Albien-Cénomanien (Crétacé moyen). Les âges de l'Ophiolite de Siquisique, précédement calculés par la méthode sur plagioclases, pourraient être légèrement plus jeune (94-90 Ma) et donc représenter des intrusions plus récentes de dykes dans le complexe filonien déjà bien dévelopé. La géochimie de ces roches magmatiques, ainsi que les reconstructions paléotectoniques de la zone Caraïbes durant cette période, suggèrent que ces formations sont dérivées d'une ride médio-océanique associée à l'influence d'un panache mantellique. L'ophiolite de Siquisique représente très probablement un fragment du bassin de proto¬Caraïbe. L'expédition 344 du programme IODP (Integrated Ocean Drilling Program) a eu lieu dans l'optique de forer et dresser une coupe de la marge convergente au large du Costa Rica. Deux sites de cette expédition ont été choisis pour les besoins des études de biostratigraphie et de reconstruction paléocéanographique. Ces deux sites (U1381C et U1414A) sont situés sur la plaque subductante de Cocos, dans la zone Pacifique est-équatoriale. La carotte U1381C expose une séquence s'étalant du Miocène moyen au Pléistocène, et présente un important hiatus d'environ 10 Ma. La carotte U1414A expose une séquence continue s'étalant du Miocène tardif au Pléistocène (zone à radiolaires RN6-RN16). Les âges ont été assignés sur la base des radiolaires et corrélés avec les zones à nanofossiles et les datations 40Ar-39Ar sur téphras. Avec ces résultats, et en considérant le mouvement nord de la plaque de Cocos (environ 7 cm/an), déduction est faite que les deux sites étaient initialement situés, au cours du Miocène, à plusieurs centaines de kilomètres de leur location actuelle, au sud de l'équateur. Cela suggère que les faunes de ces sites ont été sujettes à différents courants; premièrement influencées par la langue froide du SEC (South Equatorial Current), puis par les eaux chaudes du ECC (Equatorial Countercurrent). Pour terminer, les remontées d'eau côtières ont influencées les faunes Pléistocène.
Resumo:
Combining theories on social trust and social capital with sociopsychological approaches and applying contextual analyses to Swiss and European survey data, this thesis examines under what circumstances generalised trust, often understood as public good, may not benefit everyone, but instead amplify inequality. The empirical investigation focuses on the Swiss context, but considers different scales of analysis. Two broader questions are addressed. First, might generalised trust imply more or less narrow visions of community and solidarity in different contexts? Applying nonlinear principal component analysis to aggregate indicators, Study 1 explores inclusive and exclusive types of social capital in Europe, measured as regional configurations of generalised trust, civic participation and attitudes towards diversity. Study 2 employs multilevel models to examine how generalised trust, as an individual predisposition and an aggregate climate at the level of Swiss cantons, is linked to equality- directed collective action intention versus radical right support. Second, might high-trust climates impact negatively on disadvantaged members of society, precisely because they reflect a normative discourse of social harmony that impedes recognition of inequality? Study 3 compares how climates of generalised trust at the level of Swiss micro-regions and subjective perceptions of neighbourhood cohesion moderate the negative relationship between socio-economic disadvantage and mental health. Overall, demonstrating beneficial, as well as counterintuitive effects of social trust, this thesis proposes a critical and contextualised approach to the sources and dynamics of social cohesion in democratic societies. -- Cette thèse combine des théories sur le capital social et la confiance sociale avec des approches psychosociales et s'appuie sur des analyses contextuelles de données d'enquêtes suisses et européennes, afin d'étudier dans quelles circonstances la confiance généralisée, souvent présentée comme un bien public, pourrait ne pas bénéficier à tout le monde, mais amplifier les inégalités. Les études empiriques, centrées sur le contexte suisse, intègrent différentes échelles d'analyse et investiguent deux questions principales. Premièrement, la confiance généralisée implique-t-elle des visions plus ou moins restrictives de la communauté et de la solidarité selon le contexte? Dans l'étude 1, une analyse à composantes principales non-linéaire sur des indicateurs agrégés permet d'explorer des types de capital social inclusif et exclusif en Europe, mesurés par des configurations régionales de confiance généralisée, de participation civique, et d'attitudes envers la diversité. L'étude 2 utilise des modèles multiniveaux afin d'analyser comment la confiance généralisée, en tant que prédisposition individuelle et climat agrégé au niveau des cantons suisses, est associée à l'intention de participer à des actions collectives en faveur de l'égalité ou, au contraire, à l'intention de voter pour la droite radicale. Deuxièmement, des climats de haute confiance peuvent-ils avoir un impact négatif sur des membres désavantagés de la société, précisément parce qu'ils reflètent un discours normatif d'harmonie sociale qui empêche la reconnaissance des inégalités? L'étude 3 analyse comment des climats de confiance au niveau des micro-régions suisses et la perception subjective de faire partie d'un environnement cohésif modèrent la relation négative entre le désavantage socio-économique et la santé mentale. En démontrant des effets bénéfiques mais aussi contre-intuitifs de la confiance sociale, cette thèse propose une approche critique et contextualisée des sources et dynamiques de la cohésion sociale dans les sociétés démocratiques.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Tibau do Sul est une commune littorale du Rio Grande do Norte connue pour sa Praia da Pipa, un ancien village de pêcheurs entouré de plages spectaculaires, devenu un haut lieu du tourisme balnéaire dans le Nordeste brésilien. Située à la limite d'une zone de plantations sucrières, la station est fréquentée par des villégiateurs issus de l'élite agraire locale depuis le début du XXe siècle. Toutefois, ce n'est que dans les années 1970-80 que le tourisme se développe véritablement sous l'impulsion de jeunes surfeurs attirés par ses vagues, ses beaux paysages et « l'authenticité » de sa population autochtone. A l'époque, l'attitude subversive de ces jeunes voyageurs - inspirés de la contre-culture brésilienne - contraste de manière radicale avec le style paternaliste des élites villégiatrices. Pour la population locale, l'irruption du tourisme ouvre un nouveau champ de possibilités économiques, sociales et politiques. Elle coïncide par ailleurs avec une série d'autres transformations à l'oeuvre dans la région : le déclin des plantations, la modernisation de l'activité maritime, le développement des institutions municipales. Cette conjonction de facteurs encourage l'émergence d'une petite bourgeoisie autochtone impliquée dans les cercles de pouvoirs locaux et capable de négocier avec les étrangers attirés par le tourisme. A mesure que l'activité se professionnalise et s'internationalise, de nouveaux acteurs investissent la commune : agents immobiliers, entrepreneurs, investisseurs internationaux, résidents secondaires européens, travailleurs immigrés, écologistes, institutions publiques, etc. Il s'enclenche alors une cohabitation inédite entre des groupes socialement et culturellement très hétérogènes. A la fois conflictuelle et créatrice, cette configuration induit un certain nombre de frictions qui se manifestent aussi bien dans les rapports fonciers et les luttes environnementales, que dans les activités culturelles, les médias locaux et la politique municipale. A contre-courant des interprétations réductrices présentant le tourisme tantôt comme une forme de « néo-colonialisme », tantôt comme une « recette miracle » pour le développement, l'enquête ethnographique souligne toute l'ambivalence du phénomène touristique. À l'instar de la « situation coloniale » analysée par Georges Balandier (1951), la situation touristique est envisagée comme une configuration sociale fondée sur l'interdépendance entre les acteurs, historiquement déterminée, mais jamais acquise à l'avance. Dans le cas de Tibau do Sul, l'étude révèle l'influence déterminante des structures sociales et foncières - héritées des modes de production antérieurs (la paysannerie, la pêche et les plantations sucrières) - sur la trajectoire touristique des communautés du littoral.
Resumo:
Une des meilleures techniques pour décontaminer l'environnement d'éléments toxiques (comme par exemple le dibenzofuan, DBF et le 4-chlorophenol, 4CP) déposés par l'homme, à bas coûts et sans le perturber considérablement, est sans doute la biorémédiation, et particulièrement la bioaugmentation. Malheureusement, si plusieurs microorganismes ont démontré leur efficacité à dégrader les composés toxiques en conditions de laboratoire, plusieurs tentatives afin de les utiliser dans l'environnement n'ont pas abouti. Ces échecs sont probablement le résultat des pauvres connaissances des réactions de ces mêmes microorganismes dans l'environnement. L'objectif de mon travail a été de mieux comprendre les réponses de ces bactéries au niveau de leurs gènes lorsqu'elles sont introduites ou prospèrent dans des conditions plus proches de la réalité, mais encore suffisamment contrôlées pour pouvoir élucider leur comportement. Le fait de résister à des conditions de sécheresse a été considéré en tant que facteur clé dans la survie des bactéries amenées à être utilisées pour la biorémédiation; cela implique une série de mécanismes utilisés par la cellule pour faire face au stress hydrique. Le chapitre II, par une approche métagénomique, compare les réactions de trois souches prometteuses pour la biorémédiation (Arthrobacter chlorophenolicus A6, Sphingomonas wittichii RW1 and Pseudomonas veronii 1YdBTEX2) vis-à-vis du stress hydrique simulé en conditions de laboratoire. L'objectif ici est de découvrir et de décrire les stratégies de résistance au stress, communes ou spécifiques, employées par les bactéries. Mes résultats montrent que les trois souches ont des sensibilités différentes au stress hydrique. Entre les traits communs trouvés, il y a une diminution de l'expression des gènes flagellaires ainsi qu'une augmentation de l'expression de solutes compatibles, mais qui sont souche-spécifiques. J'ai étudié plus en détail la réponse génomique de RW1 par rapport aux inoculations ainsi que sa croissance dans le sable contaminé et non-stérile (chapitre III), et je les ai comparé à des cultures en milieu liquide. Mes résultats indiquent que RW1 peut résister efficacement et peut croître dans des conditions presque sèches et peut également dégrader le contaminant (DBF, dans le cas présent) si les pré-cultures sont réalisées dans le même type de contaminant. Par contre, notre hypothèse du chapitre II se révèle fausse car le comportement de RW1 est très diffèrent de celui observé dans des conditions avec stress hydrique induit par l'addition de sel ou de PEG. Plus intéressant, les réponses de RW1 en milieu liquide sont très différentes de celles observées dans le sable, révélant ainsi que cette souche peut reconnaître le milieu dans lequel elle se trouve. Les mêmes expériences en sable contaminé, cette fois-ci avec 4CP, ont été réalisées pour A6 (chapitre IV) dans l'espoir de compléter la comparaison entre le stress hydrique et l'adaptation dans le sol. Malheureusement, il n'a pas été possible d'obtenir d'échantillons de bonne qualité pour les hybridations des microarrays afin d'étudier la réponse transcriptionnelle dans les différentes phases de croissance dans le sable (contaminé ou non). Toutefois, j'ai appris qu'Arthrobacter ne peut pas croitre dans les sols hautement contaminés si les conditions du sol sont très sèches, elles ont en effet besoin de suffisamment d'eau pour dégrader des quantités importantes de 4CP. Ces observations dirigent l'attention sur le fait que les études sur l'efficacité de l'inoculation de bactéries doivent être testées dans des conditions le plus proche possible de l'environnement ciblé, tout comme les concentrations optimales pour l'inoculum. Finalement, nous avons étudié le comportement de A6 dans la phytosphère avec deux dégrés d'humidité (chapitre V). A6 ne montre pas de réaction particulière face aux changements d'humidité, et à nouveau, ces réponses ne peuvent être liées aux changements d'expression des gènes observées dans les conditions de stress hydrique simulées. Cette étude a permis d'identifier la présence de composés phénoliques dans les feuilles qui peuvent potentiellement améliorer les propriétés de dégradation ou qui permettent d'effectuer de façon plus rapide la réaction de dégradation des contaminants dans un processus de phytoremédiation par A. chlorophenolicus.
Resumo:
Cette thèse analyse la co-évolution de deux secteurs dans la politique de la santé: santé publique (public health) et soins aux malades (health care). En d'autres termes, la relation entre les dimensions curative et préventive de la politique de la santé et leur développement dans la durée. Une telle recherche est nécessaire car les problèmes de la santé sont complexes et ont besoin de solutions coordonnées. De plus, les dépenses de la santé ont augmenté sans arrt durant les dernières décennies. Un moyen de réduire une future augmentation des dépenses pourrait consister en davantage d'investissement dans des mesures préventives. En relation avec cette idée, ma recherche analyse les politiques de la santé publique et les soins aux malades de cinq pays: Allemagne, Angleterre, Australie, Etats-Unis et Suisse. En m'appuyant sur la littérature secondaire, des statistiques descriptives et des entretiens avec des experts et des politiciens, j'analyse la relation entre les deux secteurs depuis la fin du dix-neuvième siècle. En particulier, je me focalise sur la relation des deux champs sur trois niveaux: institutions, acteurs et politiques. Mes résultats montrent les similitudes et les différences d'évolution entre les cinq pays. D'un c^oté, lorsque la profession médicale est politiquement active et que le pays consiste en une fédération centralisée ou en un gouvernement unitaire, les deux secteurs sont intégrés au niveau institutionnel, ralliant les professions et groupes d'intérêt des deux secteurs la cause commune dans une activité politique. Par contre, dans tous les pays, les deux secteurs ont co-évolué vers une complémentarité malgré de la politisation des professions et la centralisation du gouvernement. Ces résultats sont intéressants pour la science politique en général car ils soulignent l'importance des professions pour le développement institutionnel et proposent un cadre pour l'analyse de la co-évolution des politiques publiques en général. -- This Ph.D. thesis analyzes the co-evolution of the health care and the public health sectors. In other words, the relation between preventive and curative health policy and its evolution over time. Such research is necessary, because current health problems are complex and might need coordinated solutions. What is more, health expenditures have increased continuously in the last decades. One way to slow down further increase in health spending could be to invest more in preventative health policies. Therefore, I am connecting individual health care and public health into a common analysis, taking Australia, Germany, Switzerland, the UK and the U.S. as examples. Based on secondary literature, descriptive statistics and interviews with experts and policymakers, I am analyzing how the two sectors' relations co-evolved between the late nineteenth and the early twenty-first century. Specifically, I am researching how health care and public health were related on the levels of institutions, actors and policies. My results show that there are differences and similarities in the co-evolution of policy sectors between these countries. On the one hand, when the medical profession was politically active and the country a centralized federation or a unitary state, there was institutional integration and common political advocacy of the sectors' interest groups and professions. On the other hand, in all countries, both sectors co-evolved towards complementarity, irrespectively of the politicization of professions and centralization of government. These findings are interesting for the political science literature at large, because they underline the importance of professions for institutional development and propose an analytical framework for analyzing the co-evolution of policy sectors in general.
Resumo:
En prenant pour objet la migration des médecins d'Afrique vers trois pays d'Europe (Royaume-Uni, France, Suisse), cet article vise à dépasser une approche s'intéressant de manière exclusive aux facteurs de la décision de migrer. Il prend en considération l'ensemble de la carrière du migrant et notamment les modes d'insertion professionnelle dans le pays d'installation. Ce faisant, l'article vise à appréhender ce qu'il y a de commun dans les motifs du choix de partir et ce qu'il y a de profondément différent dans les situations d'arrivée. L'analyse des contextes nationaux étudiés met en évidence l'importance considérable de l'héritage politico-institutionnel du pays d'arrivée quant à la possibilité d'exercer une carrière médicale.
Resumo:
Le but de cet article est triple. D'abord, nous identifions les qualités d'une bonne justice en Suisse, telles que défi nies par les différents acteurs qui forment le tribunal au sens large (juges, gestionnaires de tribunaux, avocats, journalistes, politiciens). Deuxièmement, nous vérifions si ces qualités peuvent coexister avec les valeurs véhiculées par le monde managérial (NGP). Enfin, nous évaluons la manière dont elles cohabitent (hybridation, dominance des unes sur les autres, etc.). Pour ce faire, nous avons analysé une série d'entretiens (56) semi-structurés menés dans des tribunaux de première et seconde instance dans des cours civiles, administratives et criminelles, dans les trois régions linguistiques du pays. Les résultats montrent que les groupes d'acteurs interviewés ont des attentes relativement similaires et qu'elles ne semblent pas être incompatibles avec celles de l'univers managérial. Cependant, lorsqu'ils décrivent la bonne justice, les participants font plus souvent appel à des notions liées au monde commercial qu'au monde industriel contrairement à d'autres études menées auprès d'employés du secteur public suisse, mais dans la lignée de ceux du Québec. L'article ouvre la voie à des recherches ultérieures dont l'objectif sera de tester ces conclusions. Abstract The purpose of this paper is threefold. First, we identify the qualities of good justice in Switzerland, as defi ned by the various actors who form the tribunal in a broad sense (judges, court managers, lawyers, journalists, politicians). Second, we verify if these qualities are compatible with the values conveyed by the managerial universe (NPM). Finally, we evaluate how they coexist (hybridization, dominance over each other, etc.). To do this, we analysed a series of semi-structured interviews (56) conducted in tribunals of fi rst and second instance in civil, administrative,and criminal courts in the three linguistic regions of the country. The results show that the groups of actors interviewed have relatively similar expectations that do not seem to be incompatible with those of the managerial world. However, when describing good justice, the participants refer more frequently to concepts related to the commercial than the industrial world, contrary to other Swiss public servants but in line with those of Quebec, as uncovered by former studies. The article opens up the path to further research whose objective will be to test those conclusions.
Resumo:
The Ivrea and the Strona-Ceneri zones, NW italy and S Switzerland, offer the possibility to study the continental crust of the Southern Alps. Because of its high metamorphic degree and the abundant Permo- Carboniferous mafic intrusions, the Ivrea Zone is classically interpreted an exposed section trough the Permian lower crust. The present work is focused here on metasedimentary slices (septa) intercalated within Permian gabbro (mafic complex). In particular I studied the evolution of accessory phases such as rutile and zircon and the chemistry of the metasediments. The septa build an irregular and discontinuous band that cut obliquely the mafic complex from its deepest part (N) to its roof (S). The chemistry of the metasediments evolves along the band and the chemical evolution can be compared with that observed in the country-rock surrounding the mafic intrusion to the NE and overprinted by a main regional metamorphic event. This suggests that the degree of chemical depletion of the septa was mainly established during the same regional metamorphic event. Moreover it suggests that incorporation of the septa within the gabbro did not modify their original stratigraphie distribution within the crust. It implies that the mafic complex has been emplaced following a dynamic substantially different from the classic model of « gabbro glacier » (Quick et al., 1992; Quick et al., 1994). It is more likely that it has been emplaced by repeated injections of sills at different depths during a protracted period of time. Zircon trace elements and U-Pb ages suggest that regional metamorphism occurred 330-320Ma, the first sills in the deepest part of the Mafic Complex are injected at ~300Ma, the mafic magmas reached higher levels in the crust at 285Ma and the magmatic activity continued locally until 275Ma. The ages of detrital cores in zircons fix the maximal sedimentation age at ~370Ma, this age corresponds therefore with the maximal age of the incorporation of the Ivrea zone within the lower crust. I propose that the Ivrea zone has been accreted to the lower crust during the Hercynian orogeny sensu lato. The analysis of detrital ages suggests that the source terrains for the Ivrea zone and those for the Strona-Ceneri zone have a completely different Palaeozoic history. The systematic analysis of rutile in partially molten metasediments of the Ivrea zone reveals the occurrence of two generations. The two generations are characterized by a different chemistry and textural distribution. A first generation is formed during pro-grade metamorphism in the restitic counterpart. The second generation is formed in the melts during cooling at the same time that part of the first generation re-equilibrate. Re-equilibration of the first generation seems to be spatially controlled by the presence of fluids. Locally the second generation forms overgrowths on the first generation. Considered the different diffusivity of U and Pb in rutile, U heterogeneities have important implication for U-Pb dating of rutile. ID-TIMS and LA-ICPMS dating coupled with a careful textural investigation (SEM) suggest that rutile grains are characterized by multiple path along which Pb diffusion can occur: volume diffusion is an important process, but intragrain and subgrain boundaries provide additional high diffusivity pathways for Pb escape and reduce drastically the effective diffusion length. -- La zone d'Ivrea et la zone de Strona-Ceneri, en Italie nord-occidentale et Suisse méridionale, offrent la possibilité d'étudier la croûte continentale des Alpes du Sud. En raison du haut degré métamorphique et l'abondance d'intrusions mafiques d'âge Permo-Carbonifère [complexe mafique), la zone d'Ivrea est interprétée classiquement comme de la croûte inférieure permienne. Ce travail ce concentre sur des bandes metasédimentaires (septa) incorporées dans les magmas mafiques lors de l'intrusion. Les septa forment une bande irrégulière qui coupe obliquement le complexe mafique du bas (N) vers le haut (S). La chimie des septa évolue du bas vers le haut et l'évolution chimique se rapproche de l'évolution observé dans la roche encaissante l'intrusion affecté par un événement métamorphique régionale. Cette relation suggère que le degré d'appauvrissement chimique des septa a été établit principalement lors de l'événement métamorphique régional. De plus l'incorporation dans les gabbros n'a pas perturbée la distribution stratigraphique originelle des septa. Ces deux observations impliquent que le métamorphisme dans la roche encaissante précède la mise en place du gabbro et que cette dernière ne se fait pas selon le modèle classique (« gabbro glacier » de Quick et al., 1992, 1994), mais se fait plutôt par injections répétées de sills a différentes profondeurs. Les âges U-Pb et les éléments traces des zircons suggèrent que le métamorphisme régionale a eu lieu 330-320Ma, alors que les premiers sills dans la partie profonde du Mafic Complex s'injectent à ~300Ma, le magmatisme mafique atteigne des niveaux supérieurs à 285Ma et continue localement jusqu'à 270Ma. Les âges des coeurs détritiques des zircons permettent de fixer l'âge maximale de sédimentation à ~370Ma ce qui correspond donc à l'âge maximale de l'incorporation de la zone d'Ivrea dans la croûte inférieur. L'analyse systématique des rutiles, nous a permit de montrer l'existence de plusieurs générations qui ont une répartition texturale et une chimie différente. Une génération se forme lors de l'événement UHT dans les restites, une autre génération se forme dans les liquides lors du refroidissement, au même temps qu'une partie de la première génération se rééquilibre au niveau du Zr. Localement la deuxième génération peut former des surcroissances autour de la première génération. Dans ces cas, des fortes différences en uranium entre les deux générations ont des importantes implications pour la datation U-Pb sur rutile. Classiquement les ratios Pb/U dans le rutile sont interprétés comme indiquant l'âges du refroidissement du minéral sous une température à la quelle la diffusion du Pb dans le minéral n'est plus détectable et la diffusion à plus hautes températures est assumée se faire par «volume diffusion» dans le grain (Mezger et al., 1989). Par des datations ID-TIMS (sur grain entier) et LA-ICPMS (in-situ) et une analyse texturale (MEB) approfondie nous montrons que cette supposition est trop simpliste et que le rutile est repartie en sous-domaines. Chacun de ces domaines a ça propre longueur ou chemin de diffusion spécifique. Nous proposons donc une nouvelle approche plus cohérente pour l'interprétation des âges U-Pb sur rutile.
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.