254 resultados para données à haute fréquence
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
RESUME : Valganciclovir (Valcyte®) is an orally administered ester prodrug of the standard anticytomegalovirus (CMV) drug ganciclovir. This drug enabled an important reduction of the burden of CMV morbidity and mortality in solid organ transplant recipients. Prevention of CMV infection and treatment of CMV disease requires drug administration during many weeks. Oral drug administration is therefore convenient. Valganciclovir has been developed to overcome the poor oral availability of ganciclovir, which limits its concentration exposure after oral administration and thus its efficacy. This prodrug crosses efficiently the intestinal barrier, is then hydrolyzed into ganciclovir, providing exposure similar to intravenous ganciclovir. Valganciclovir is now preferred for the prophylaxis and treatment of CMV infection in solid organ transplant recipients. Nevertheless, adequate dosage adjustment is necessary to optimize its use, avoiding either insufficient or exaggerate exposure related to differences in its pharmacokinetic profile between patients. The main goal of this thesis was to better describe the pharmacokinetic and pharmacodynamic profile of valganciclovir in solid organ transplant recipients, to assess their reproducibility and their predictability, and thus to evaluate the current recommendations for valganciclovir dosage adjustment and the potential contribution of routine therapeutic drug monitoring (TDM) to patients' management. A total of 437 ganciclovir plasma concentration data from 65 transplant patients (41 kidney, 12 lung, 10 heart and 2 liver recipients, 58 under oral valganciclovir prophylaxis, 8 under oral valganciclovir treatment and 2 under intravenous ganciclovir) were measured using a validated chromatographic method (HPLC) developed for this study. The results were analyzed by non-linear mixed effect modeling (NONMEM). A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by GFR, with further differences between graft types and sex (CL/GFR = 1.7 in kidney, 0.9 in heart and 1.2 in lung and liver recipients) with interpatient variability (CV%) of 26% and interoccasion variability of 12%. Body weight and sex influenced central volume of distribution (V1 = 0.34 l/kg in males and 0.27 l/kg in females) with an interpatient variability of 20%. Residual intrapatient variability was 21 %. No significant drug interaction influenced GCV disposition. VGC prophylactic efficacy and tolerability were good, without detectable dependence on GCV profile. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of GCV profile after oral VGC in solid organ transplant recipients, routine TDM does not appear to be clinically indicated. However, GCV plasma measurement may still be helpful in specific clinical situations such as documentation of appropriate exposure in patients with potentially compromised absorption, or lack of response to CMV disease treatment, or under renal replacement therapy. RESUME : Le valganciclovir (Valcyte®) est un promédicament oral du ganciclovir qui est un anti-infectieux de référence contre les infections à cytomegalovirus (CMV). Cet antiviral a permis de réduire les effets délétères de cette infection jusqu'ici responsable d'une importante morbidité et mortalité chez les transplantés d'organe. La prévention et le traitement de l'infection à CMV sont donc nécessaires mais requièrent l'administration d'un agent antiviral sur une longue période. Un médicament administré par voie orale représente donc un avantage évident. Le valganciclovir a été développé dans le but d'améliorer la faible absorption orale du ganciclovir, et donc son efficacité. Cet ester valylique du ganciclovir traverse plus facilement la barrière gastro-intestinale, puis est hydrolysé en ganciclovir dans la circulation sanguine, produisant une exposition comparable à celle d'une perfusion intraveineuse de ganciclovir. De ce fait, le valganciclovir est devenu largement utilisé pour la prophylaxie mais aussi le traitement de l'infection à CMV. Néanmoins une utilisation optimale de ce nouveau médicament nécessite de bonnes connaissances sur son profil pharmacocinétique afin d'établir un schéma de dose adapté pour éviter tant une surexposition qu'une sous-exposition résultant des différences d'élimination entre les patients. Le but de cette thèse a été d'étudier le profil pharmacocinétique et pharmacodynamique du valganciclovir chez les transplantés d'organe ainsi que sa reproductibilité et sa prédictibilité. Il s'agissait d'apprécier de manière critique le schéma actuellement recommandé pour l'adaptation des doses de valganciclovir, mais aussi la contribution éventuelle d'un suivi des concentrations sanguines en routine. Un total de 437 taux sanguins de ganciclovir ont été mesurés, provenant de 65 patients transplantés d'organe (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques, 58 sous une prophylaxie orale de valganciclovir, 8 sous un traitement de valganciclovir et 2 sous un traitement intraveineux). Une méthode de chromatographie liquide à haute performance a été développée et validée pour cette étude. Les résultats ont été ensuite analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle à deux compartiments avec absorption de premier ordre a permis de décrire les données. La clairance systémique était principalement influencée par le débit de filtration glomérulaire (GFR), avec une différence entre les types de greffe et les sexes (CL/GFR = 1.7 chez les greffés rénaux, 0.9 pour les greffés cardiaques et 1.2 pour le groupe des greffés pulmonaires et hépatiques) avec un variabilité inter-individuelle de 26% (CV%) et une variabilité inter-occasion de 12%. Le poids corporel ainsi que le sexe avaient une influence sur le volume central de distribution (V1 = 0.34 l/kg chez les hommes et 0.27 l/kg chez les femmes) avec une variabilité inter-individuelle de 20%. La variabilité intra-individuelle résiduelle était de 21 %. Aucune interaction médicamenteuse n'a montré d'influence sur le profil du ganciclovir. La prophylaxie avec le valganciclovir s'est révélée efficace et bien tolérée. En conclusion, cette analyse souligne l'importance d'une adaptation de la dose du valganciclovir à la fonction rénale et au poids du patient. Au vu de la bonne reproductibilité et prédictibilité du profil pharmacocinétique du ganciclovir chez les patients transplantés recevant du valganciclovir, un suivi des concentrations sanguines en routine ne semble pas cliniquement indiqué. Néanmoins, la mesure des taux plasmatiques de ganciclovir peut être utile dans certaines situations particulières, comme la vérification d'une exposition appropriée chez des patients susceptibles d'absorption insuffisante, ou ne répondant pas au traitement d'une infection à CMV ou encore sous épuration extra-rénale. RESUME LARGE PUBLIC : Le valganciclovir est un précurseur capable de libérer du ganciclovir, récemment développé pour améliorer la faible absorption orale de ce dernier. Une fois le valganciclovir absorbé, le ganciclovir libéré dans la circulation sanguine devient efficace contre les infections à cytomégalovirus. Ce virus largement répandu est responsable de maladies insidieuses et parfois graves chez les personnes présentant une baisse des défenses immunitaires, comme les greffés d'organe recevant un traitement anti-rejet. Le ganciclovir est administré pendant plusieurs mois consécutifs soit pour prévenir une infection après la transplantation, soit pour traiter une infection déclarée. La facilité d'administration du valganciclovir par voie orale représente un avantage sur une administration du ganciclovir par perfusion, qui nécessite une hospitalisation. Toutefois, la voie orale peut être une source supplémentaire de variabilité chez les patients, avec un impact potentiel sur l'efficacité ou la toxicité du médicament. Le but de cette étude a été - de décrire le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline de la pharmacocinétique) - de définir les facteurs cliniques pouvant expliquer les différences de concentration sanguine observées entre les patients sous une posologie donnée - d'explorer les relations entre les concentrations du médicament dans le sang et son efficacité ou la survenue d'effets indésirables (dont l'étude relève de la discipline de la pharmacodynamie). Cette étude a nécessité le développement et la validation, d'une méthode d'analyse pour mesurer la concentration sanguine du ganciclovir, puis son application à 437 échantillons provenant de 65 patients transplantés d'organe solide (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques) recevant du valganciclovir. Les résultats des mesures effectuées ont été analysés à l'aide d'un outil mathématique afin d'élaborer un modèle du devenir du médicament dans le sang chez chaque patient et à chaque occasion. Cette étude a permis d'évaluer chez des patients recevant le valganciclovir, la vitesse à laquelle l'organisme absorbe, distribue, puis élimine le médicament. La vitesse d'élimination dépendait étroitement de la fonction rénale, du type de greffe et du sexe alors que la distribution dépendait du poids et du sexe du patient. La variabilité non expliquée par ces facteurs cliniques était modérée et vraisemblablement sans conséquence clinique évidente soit sur l'efficacité ou la tolérance, qui se révèlent très satisfaisantes chez les patients de l'étude. Les observations n'ont pas révélé de relation entre les concentrations de médicament et l'efficacité thérapeutique ou la survenue d'effets indésirables, confirmant que les doses relativement faibles utilisées dans notre collectif de patients suffisaient à produire une exposition reproductible à des concentrations adéquates. En conclusion, le profil (et par conséquent l'absorption) du valganciclovir chez les patients transplantés semble bien prédictible après une adaptation de la dose à la fonction rénale et au poids du patient. Un contrôle systématique des concentrations sanguines n'est probablement pas indiqué en routine, mais cette mesure peut présenter un intérêt dans certaines conditions particulières.
Resumo:
Abstract The Northwestern edge of the modern Caribbean Plate, located in central Middle America (S-Guatemala to N-Costa Rica), is characterized by a puzzle of oceanic and continental terranes that belonged originally to the Pacific façade of North America. South of the Motagua Fault Zone, the actual northern strike slip boundary of the Caribbean Plate, three continental slivers (Copán, Chortis s. str. and Patuca) are sandwiched between two complex suture zones that contain HP/LT mafic and ultramafic oceanic rocks: The Motagua Mélanges to the North, extensively studied in the last ten years and the' newly defined Mesquito Composite Oceanic Terrane (MCOT) to the South. No modem geological data were available for the oceanic terrane located in the southern part of the so called continental "Chortis Block". Classically, the southern limit of this block with the Caribbean Large Igneous Province (CLIP) was placed at a hypothetical fault line connecting the main E-W fault in the Santa Elena Peninsula (N-Costa Rica) with the Hess Escarpment. However, our study in eastern Nicaragua and northwestern Costa Rica evidences an extensive assemblage of oceanic upper mantle and crustal rocks outcropping between the Chortis/Patuca continental blocks and the CLIP. They comprise collided and accreted exotic terranes of Pacific origin recording a polyphased tectonic history. We distinguish: 1- The MCOT that comprises a Late Triassic to Early Cretaceous puzzle of oceanic crust and arc-derived rocks set in a serpentinite matrix, and 2- The Manzanillo and Nicoya Terranes that are made of Cretaceous plateau-like rocks associated with oceanic sediments older than the CLIP. This study has been focused on the rocks of the MCOT. The MCOT comprises the southern half of the former "Chortis Block" and is defined by 4 comer localities characterized by ultramafic and mafic oceanic rocks of Late Triassic, Jurassic and Early Cretaceous age: 1- The Siuna Serpentinite Mélange (NE-Nicaragua), 2- The El Castillo Mélange (Nicaragua/Costa Rica border), 3- DSDP Legs 67 and 84 (Guatemala fore-arc basin), and 4- The Santa Elena Peridiotite (NW-Costa Rica). The Siuna Serpentinite Mélange (SSM) is a HP/LT subduction zone mélange set in a serpentinite matrix that contains oceanic crust and arc-related greenschist to blueschist/eclogite facies metamafic and metasedimentary blocks. Middle Jurassic (Bajocian-Bathonian) radiolarites are found in original sedimentary contact with arc-derived greenstones. Late Jurassic black detrital chert possibly formed in a marginal (fore-arc?) basin shortly before subduction. A phengite 40Ar/39Ar -cooling age dates the exhumation of the high pressure rocks as 139 Ma. The El Castillo Mélange (ECM) is composed of serpentinite matrix with OIB metabasalts and Late Triassic (Rhaetian) red and green radiolarite blocks. Recent studies of the DSDP Legs 67/84 show that the Guatemala/Nicaragua fore-arc basin is composed of a pile of ultramafic, mafic (OIB-like) and arc related rocks with ages ranging from Late Triassic to Campanian. Finally, the Santa Elena peridiotites that mark the limit of the MCOT with the Manzanillo/Nicoya Terranes and correspond to an association of ultramafic rocks that comprise peridiotites, dunites and chromites of abyssal and fore-arc origin. The SSM is the result of a collision between a Middle Jurassic island arc and the Patuca Terrane, a fragment of the Western N-American active continental margin. The Siuna Mélange (SSM) and the South Montagna Mélange share common characteristics with the Pacific N-American suture zone (E-Franciscan and Vizcaino mélanges), in particular, the Mesozoic ages of HP/LT metamorphic and the arc-derived blocks. For us, these mélanges imply an originally continuous, but slightly diachronous suture that affected the entire W-American active margin. It may imply the arrival and collision of an exotic intraoceanic arc (Guerrero-Phoenix) related to the origin of the Pacific Plate that initiated as a back arc basin of this arc. The present disposition of the fragments of this suture zone is the result of a northward shift of the active left-lateral strike slip motion between the N-American and the Caribbean Plates. Résumé Le coin nord-ouest de la Plaque Caraïbe moderne se trouve en Amérique Centrale, entre le sud du Guatemala et le nord du Costa Rica. Cette région est composée d'un puzzle de terrains océaniques et continentaux dont les origines se situent sur la façade pacifique de l'Amérique du Nord. Au sud de la faille de Motagua, la limite septentrionale actuelle, décrochante, de la Plaque Caraïbe, se trouvent 3 copeaux continentaux (Copàn, Chortis s. str. et Patuca) coincés entre deux zones de suture complexes à roches mafiques et ultramafiques qui ont subi un métamorphisme de haute pression/basse température (HP/LT). Il s'agit des Mélanges de Motagua au nord, largement étudiés ces dernières années, et du Mesquito Composite Oceanic Terrane (MCOT), récemment défini par nous, au sud. En vue de l'absence de données géologiques modernes concernant les terrains océaniques qui se trouvent dans la partie sud du "Chortis Block" considérée comme continentale, nous avons dédié cette étude à cette région. Classiquement, la limite méridionale entre le "Chortis Block" et la "Caribbean Large Igneous Province" (CLIP) a été associée à une faille hypothétique reliant la faille E-W de Santa Elena (nord du Costa Rica) à l'Escarpement de Hess. Notre étude au Nicaragua oriental et au Costa Rica nord-occidental a révélé l'existence de larges terrains composés d'assemblages de roches mantéliques et océaniques qui se placent entre les blocs continentaux Chortis/Patuca et le CLIP. Ces assemblages révèlent des terrains collisionnés et accrétés d'origine pacifique enregistrant une histoire tectonique polyphasée. Nous distinguons: 1- Le MCOT, un puzzle de roches océaniques d'arc d'âge Triassique supérieur au Crétacée inférieur, 2- Les terrains de Manzanillo et de Nicoya, des morceaux de plateaux océaniques associés à des sédiments océaniques plus âgés que le CLIP. Cette étude se focalisera sur les roches du MCOT. Le MCOT occupe la moitié sud de l'ancien "Chortis Block" et peut se définir par 4 localités de référence qui montrent des roches mafiques et ultramafiques océaniques d'âges compris entre le Trias supérieur et le Crétacée inférieur. 1- Le Siuna Serpentinite Mélange (NE-Nicaragua), 2- Le El Castillo Mélange (Nicaragua/Costa Rica border), 3- Le DSDP Legs 67/84 (Guatemala fore-arc basin) et 4- La Santa Elena Peridiotite (nord-ouest du Costa Rica). Le Siuna Serpentinite Mélange (SSM) est un mélange de subduction HP/BT dans une matrice de serpentinite. On y trouve des éléments de croûte océanique et d'arc insulaire en faciès de schistes verts et schistes bleus. Des radiolarites du Jurassique moyen se trouvent en contact sédimentaire sur des roches vertes d'arc. En revanche, des cherts noirs détritiques datent du Jurassique supérieur et sont probablement issus d'un bassin marginal (fore-arc ?) peu avant leur subduction, car un âge 40Ar/39Ar de refroidissement des phengites date l'exhumation des roches de haute pression à 139 Ma. Le Mélange d'El Castillo (ECM) est constitué d'une matrice serpentinitique et contient des blocs de metabasaltes OIB et des blocs de radiolarites du Trias terminal. Des études récentes ont repris les roches forées lors des DSDP Legs 67 et 84 et montrent que le soubassement du bassin d'avant-arc du Guatemala-Nicaragua est composé de roches ultramafiques et mafiques (OIB et arc), dont les âges isotopiques vont du Trias au Crétacé supérieur. Finalement, les péridiotites de Santa Elena forment la limite sud du MCOT par rapport aux terrains de Manzanillo et Nicoya. Elles contiennent des serpentinites et localement des dunites et chromites à affinité abyssale et de fore-arc. Le SSM témoigne d'une collision entre un arc insulaire d'âge Jurassique moyen et le Patuca Terrane, un fragment de la marge active nord-américaine. Le SSM et le South Motagua Mélange ont des caractéristiques en commun avec les zones de suture de la façade pacifique de l'Amérique du nord (E-Franciscan et Vizcaino mélanges), notamment les âges Mésozoïques du métamorphisme HP/BT et les blocs de roches d'arc. Ce fait nous conduit à penser qu'il s'agit d'une grande zone de suture qui était à l'origine continue sur toute la marge ouest-américaine, mais légèrement diachrone. Cette suture implique l'arrivée et la collision d'un arc intraocéanique exotique (Guerrero-Phoenix) qui est à l'origine de la Plaque Pacifique qui s'ouvrait en back arc par rapport à celui-ci. La disposition actuelle des fragments de cette suture est due à la migration vers le nord du décrochement actif senestre entre la Plaque nord-américaine et la Plaque Caraïbe. K. Flores, 2009 Mesozoic oceanic terranes of southern central America Résumé Grand Public La présente thèse est le résultat de travaux de terrain effectués de 2005 à 2008 au nord-est et au sud du Nicaragua et au nord du Costa Rica, en Amérique Centrale, des analyses pétrologiques et géochimiques en laboratoire ainsi que de la modélisation de l'évolution géodynamique. La région étudiée se situe en bordure nord - ouest de la Plaque Caraïbe moderne. Dans la majorité des publications récentes cette région est représentée comme un vaste bloc continental (le "Bloc Chortis") qui serait limité, (i) au nord, par la faille décrochante de Motagua, la limite actuelle entre la Plaque Nord-Américaine et la Plaque Caraïbe, et (ii) au sud, par une suture hypothétique qui se trouverait aux confins entre le Nicaragua et le Costa Rica. La région du Costa Rica a été considérée presque entièrement comme une partie du Plateau Caraïbe ("Caribbean Large Igneous Province" (CLIP)). L'étude détaillée des affleurements nous a permis de mettre en évidence : - Au nord-est du Nicaragua (Siuna) : Des roches océaniques datées du Jurassique moyen, grâce aux faunes à radiolaires qui ont été extraites des radiolarites rouges. Ces roches ont subi un métamorphisme de haute pression typique des zones de collision. L'étude radio-isotopique Ar/Ar a permis de dater la collision du Crétacé basal (139 Ma). - Au sud du Nicaragua : Des roches océaniques d'âge Trias terminal (200 millions d'années), également datées à l'aide de faunes à radiolaires. Il s'agit actuellement des roches océaniques les plus anciennes connues de l'Amérique Centrale. - L'étude géochimique et les âges des fossiles démontrent que le tiers septentrional du Costa Rica possède un soubassement construit d'au moins deux terrains (Nicoya et Manzanillo), qui ont des caractéristiques de Plateau océanique (Nicoya) et d'arc volcanique du Crétacé moyen (Manzanillo). Ces deux terrains sont plus anciens que le CLIP. En conclusion, nous constatons que la région étudiée est constituée d'un puzzle de 3 blocs continentaux et d'un vaste terrain océanique composite que nous appelons Mesquito Composite Oceanic Terrane (MCOT). En plus, nous définissons les terrains de Nicoya et de Manzanillo comme plus âgés et distincts du CLIP. Le MCOT est caractérisé par la présence de roches du manteau supérieur (les serpentinites) et de la croûte océanique, ainsi que des morceaux d'arcs, d'âge allant du Trias supérieur au Crétacé. Ce terrain est comparable à d'autres zones de suture de la façade pacifique de l'Amérique du nord, notamment en ce qui concerne les âges Mésozoïques, le métamorphisme de haute pression et l'association de roches mantéliques et crustales océaniques. Ce fait nous conduit à penser qu'il s'agit d'une grande zone de suture qui était à l'origine continue sur toute la marge ouest-américaine. Cette suture implique l'arrivée et la collision d'un arc infra-océanique exotique qui serait à l'origine de la Plaque Pacifique qui se serait ouverte en bassin d'arrière arc par rapport à celui-ci. La disposition actuelle des fragments de cette suture est due à la migration vers le nord du décrochement actif senestre entre la Plaque nord-américaine et la Plaque Caraïbe.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Habitat fragmentation, ecology and sexual selection in forest bird species in Monteverde, Costa Rica
Resumo:
Abstract Forest fragmentation is often associated with local extinction and changes in species abundance patterns. The main topic of this thesis is the effect of forest fragmentation on birds in Monteverde, Costa Rica. This thesis also studies aspects of sexual selection and ecology of Long-tailed Manakins, Chiroxiphia Linearis. Chapter 1 investigates bird species assemblages in two degrees of forest fragmentation. It is shown that the distribution, abundance and diversity of forest bird species are strongly influenced by the amount of forest in the landscape matrix. Presence of cattle within the forest influences the presence of some bird species. The prevalence and intensity of ticks and blood parasites on birds in relation to fragmentation is described in Chapter 2. Overall tick prevalence is 3%. Understory birds are significantly more infested with ticks than species at intermediate heights. Tick prevalence on birds does not differ significantly between two degrees of forest fragmentation and individual tick loads tend to be higher in High- than in Low-fragmentation sites. Infestations by the blood parasites Haemoproteus sp. was low except in white-eared ground sparrow, Melozone leucotis, that is 28% and is significantly higher in High- than in Low-fragmentation sites. In chapter 3 results on the ecology and habitat movements of the Bare-necked Umbrellabird, Cephalopterus glabricollis, are presented. The abundance of umbrellabirds at high elevations during the breeding season coincides with the highest peak of fruit abundance. Birds leave the protected area during the non-breeding season moving to unprotected forest fragments. In chapter 4 ontogenetic changes in feather morphology through sexual maturity in Long-tailed Manakins are described. In adult males, rectrices length is positively correlated to testis volume. Changes in male morphology during ontogeny in the long-tailed manakin appear to be associated with their specific-display behaviours. Significant interpopulation differences in the morphology of Long-tailed Manakins are shown in chapter 5. These differences are more accentuated in morphological traits related to flight displays. A field experiment demonstrates that long rectrices impose flying costs for males and females. A reduction in flying ability was found to be strongest in males from a population presenting the highest degree of sexual dimorphism. Résumé La fragmentation des forêts est souvent associée avec des modifications dans l'abondance des espèces et des extinctions locales. Le thème principale de cette thèse est l'étude de l'effet de la fragmentation des forêts sur les oiseaux de Monteverde, Costa Rica. Elle décrit par ailleurs certains aspects de la sélection sexuelle et l'écologie du manakin à longue queue, Chiroxiphia linearis. Dans le Chapitre 1 je montre que la distribution, l'abondance et la diversité des assemblages d'oiseaux vivant dans la forêt sont fortement influencées pas le degré de fragmentation de celle ci. Par ailleurs, la présence ou l'absence de bétail dans les forêts influence la présence de certaines espèces d'oiseaux. Dans le chapitre 2 j'ai étudié la prévalence et l'intensité d'infestation par des tiques ainsi que la présence de parasites sanguins chez les oiseaux en relation avec la fragmentation des forêts. La prévalence globale de tiques est de 3 %, les oiseaux vivant au niveau du sol étaient plus souvent infectés par des tiques que les espèces se déplaçant à un niveau plus élevé. La prévalence de tiques sur les oiseaux n'était pas significativement différente entre les paysages avec différentes fragmentations. Les parasites sanguins du genre Haemoproteus sp. étaient présents à très basse fréquence à l'exception chez Melozone leucotis ou la prevalence était de 28% et significativement plus élevée chez les oiseaux vivant dans les forêts à forte fragmentation. Dans le Chapitre 3 je présente des résultats sur l'écologie et les mouvements entre habitats chez le "Bare-necked umbrellabird", Cephalopterus glabricollis. Cette espèce endémique du Costa Rica niche à haute altitude durant la période d'abondance des fruits et réalise une migration altitudinale vers des zones basses durant la saison de non reproduction. Dans le chapitre 4 je présente les changements ontogénétiques dans la morphologie du plumage des manakins à longue queue. Chez les mâles, les changements de morphologie semblent être associés avec leurs comportements de parade spécifiques. Dans le chapitre 5 je présente des différences morphologiques significative entre deux populations chez le manakin à longue queue et je montre que la capacité de vols chez les mâles est plus fortement influencée dans la population avec le degré de dimorphisme sexuel le plus prononcé.
Resumo:
Abstract Phenotypic polymorphism is an ideal system to study natural selection in wild populations, because it allows tracking population genetic changes by means of phenotypic changes. A wide variety of polymorphic traits have been studied in numerous animals and plants, as for example colour patterns in moths, snails and birds, human laterality, male reproductive strategies, plant morphology or mating systems. This thesis focused on Dactylorhiza sarnbucina, a rewardless European orchid species, showing a striking flower colour polymorphism, with either yellow or red flowered individuals co-occurring in natural populations. Several studies have investigated its evolutionary ecology since Nilsson's seminal paper in 1980, with a particular emphasis in the evolution and maintenance of its colour polymorphism. One of the main selective forces proposed to maintain this colour polymorphism was pollinator driven negative frequency-dependent selection (NFDS), when each morph is advantaged when rare, and comparatively disadvantaged when common. However, other investigators have recently questioned the occurrence of NFDS, and proposed alternatively that fluctuating selection may maintain this colour polymorphism. In this thesis, we aimed at reviewing and synthesizing these different studies, and also brought our contribution on D. sambucina reproductive ecology. Because numerous hypotheses have still to be tested, we concluded by saying that we are a long way from understanding the evolution and dynamics of colour polymorphism in natural D. sambucina populations. Beside the debated question of colour polymorphism maintenance, one question remained to be tested: what are the consequences of polymorphism per se. We experimentally addressed this question using artificial populations of D. sambucina, and found no relationship between population phenotypic diversity and orchid pollination success. This finding suggest that polymorphism itself was not an advantage for deceptive species such D sambucina, contrarily to the expectations. Finally, we suggest potential research perspectives that could allow a better understanding of the evolutionary ecology of this species. Résumé Le polymorphisme phénotypique est un système biologique idéal pour étudier l'action de la sélection en populations naturelles, grâce à la possibilité de suivre les changements génétiques de la population en étudiant les phénotypes des individus. De très nombreuses études ont montré du polymorphisme phénotypique chez les animaux, par exemple la latéralité chez l'Homme, la coloration des escargots ou des oiseaux. Dans le règne végétal, le polymorphisme est souvent associé à des traits du système de reproduction. Cette thèse est centrée sur une espèce d'orchidée Européenne qui ne produit pas de nectar, Dactylorhiza sambucina. Cette espèce présente des individus à fleurs jaunes et des individus à fleurs rouge, généralement présents en mélange dans les populations naturelles. Plusieurs études ont investigué l'écologie évolutive de cette espèce depuis 25 ans, avec comme thème central l'évolution et le maintien de ce polymorphisme. La principale force sélective proposée pour maintenir ce polymorphisme de couleur est la sélection fréquence-dépendante, exercée par le comportement des pollinisateurs. Chacun des deux variants de couleur est favorisé quand il est rare, et défavorisé quand il devient commun. Bien que ce mécanisme semble agir, certains auteurs doutent de son importance, et ont proposé que les variations temporelles ou spatiales des forces de sélection puisse maintenir le polymorphisme de couleur chez D. sambucina. Dans cette thèse, nous avons voulu résumer et synthétiser les résultats de ces différentes études, et aussi présenter des données nouvelles concernant la reproduction de cette espèce. À la vue de ces résultats, il apparait que de nombreux points nécessitent des expériences complémentaires, et que la compréhension de ce système biologique est encore fragmentaire. Nous nous sommes également intéressés à une question laissée en suspens dans la littérature: le polymorphisme de couleur en soit confère-t-il un avantage à l'espèce, comme proposé par certains auteurs? En construisant des populations artificielles de D. sambucina, nous avons pu montrer que le polymorphisme de couleur n'augmente pas le succès reproducteur de l'espèce. Nous terminons ce travail de recherche en proposant plusieurs axes de recherche pouvant conduire à une meilleure compréhension de l'écologie et de l'évolution de cette espèce.
Resumo:
Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Objectif Le présent travail a consisté à identifier et comparer, au moyen d'un questionnaire auto-administré, les conditions ergonomiques, les nuisances environnementales et les facteurs de stress rencontrés par le personnel soignant (n = 35) et le personnel pénitentiaire (n = 240) travaillant dans les mêmes prisons. Quatre ans ont séparé la remise du questionnaire auprès des surveillants et des soignants, ce qui limite la portée des résultats. Malgré cela, la comparaison des données fournies montre des tendances intéressantes. Résultats Sur un plan ergonomique, les soignants rencontrent une plus faible pénibilité que les surveillants. Sur un plan environnemental, les soignants sont gênés par un nombre moins important de nuisances que les surveillants, ces derniers étant exposés à des conditions très diverses de travail (divisions de haute sécurité, ateliers de production, domaines agricoles). Par contre, concernant les facteurs de stress, les soignants éprouvent des tensions dans des proportions presque identiques aux surveillants, suite aux interventions d'urgences, à la surcharge de travail, aux relations avec les détenus et à la mauvaise ambiance au travail. En outre, les soignants et surveillants paraissent souffrir différemment d'éléments d'organisation tels que le sentiment de travailler sous pression, le manque d'écoute et le manque de considération. Enfin les soignants signalent un risque de violence plus élevé ainsi qu'un manque de reconnaissance plus important que les surveillants. Conclusion Les surveillants doivent continuer à faire l'objet d'un suivi attentif des services de santé au travail. En ce qui concerne les soignants, l'accent doit être mis sur l'amélioration de leur organisation interne de travail en approfondissant, entre autres, la question du manque de reconnaissance, le sentiment de travail sous pression, ainsi qu'en poursuivant les efforts sur la formation à la lutte contre la violence. [Auteurs]
Resumo:
L'exposition aux poussières de bois est associé à un risque accru d'adénocarcinomes des fosses nasales et des sinus paranasaux (SNC, 'Sinonasal cancer') chez les travailleurs du bois. Les poussières de bois sont ainsi reconnues comme cancérogènes avérés pour l'homme par le Centre international de Recherche sur le Cancer (CIRC). Toutefois, l'agent causal spécifique et le mécanisme sous-jacent relatifs au cancer lié aux poussières de bois demeurent inconnus. Une possible explication est une co-exposition aux poussières de bois et aux Hydrocarbures Aromatiques Polycycliques (HAP), ces derniers étant potentiellement cancérogènes. Dans les faits, les travailleurs du bois sont non seulement exposés aux poussières de bois naturel, mais également à celles générées lors d'opérations effectuées à l'aide de machines (ponceuses, scies électriques, etc.) sur des finitions de bois (bois traités) ou sur des bois composites, tels que le mélaminé et les panneaux de fibres à densité moyenne (MDF, 'Medium Density Fiberboard'). Des HAP peuvent en effet être générés par la chaleur produite par l'utilisation de ces machines sur la surface du bois. Les principaux objectifs de cette thèse sont les suivants: (1) quantifier HAP qui sont présents dans les poussières générées lors de diverses opérations courantes effectuées sur différents bois (2) quantifier l'exposition individuelle aux poussières de bois et aux HAP chez les travailleurs, et (3) évaluer les effets génotoxiques (dommages au niveau de l'ADN et des chromosomes) due à l'exposition aux poussières de bois et aux HAP. Cette thèse est composée par une étude en laboratoire (objectif 1) et par une étude de terrain (objectifs 2 et 3). Pour l'étude en laboratoire, nous avons collecté des poussières de différents type de bois (sapin, MDF, hêtre, sipo, chêne, bois mélaminé) générées au cours de différentes opérations (comme le ponçage et le sciage), et ceci dans une chambre expérimentale et dans des conditions contrôlées. Ensuite, pour l'étude de terrain, nous avons suivi, dans le cadre de leur activité professionnelle, 31 travailleurs de sexe masculin (travailleurs du bois et ébenistes) exposés aux poussières de bois pendant deux jours de travail consécutifs. Nous avons également recruté, comme groupe de contrôle, 19 travailleurs non exposés. Pour effectuer une biosurveillance, nous avons collecté des échantillons de sang et des échantillons de cellules nasales et buccales pour chacun des participants. Ces derniers ont également rempli un questionnaire comprenant des données démographiques, ainsi que sur leur style de vie et sur leur exposition professionnelle. Pour les travailleurs du bois, un échantillonnage individuel de poussière a été effectué sur chaque sujet à l'aide d'une cassette fermée, puis nous avons évalué leur exposition à la poussière de bois et aux HAP, respectivement par mesure gravimétrique et par Chromatographie en phase gazeuse combinée à la spectrométrie de masse. L'évaluation des dommages induits à l'ADN et aux chromosomes (génotoxicité) a été, elle, effectuée à l'aide du test des micronoyaux (MN) sur les cellules nasales et buccales et à l'aide du test des comètes sur les échantillons de sang. Nos résultats montrent dans la poussière de la totalité des 6 types de bois étudiés la présence de HAP (dont certains sont cancérogènes). Des différences notoires dans les concentrations ont été néanmoins constatées en fonction du matériau étudié : les concentrations allant de 0,24 ppm pour la poussière de MDF à 7.95 ppm pour le mélaminé. Nos résultats montrent également que les travailleurs ont été exposés individuellement à de faibles concentrations de HAP (de 37,5 à 119,8 ng m-3) durant les opérations de travail du bois, alors que les concentrations de poussières inhalables étaient relativement élevés (moyenne géométrique de 2,8 mg m-3). En ce qui concerne la génotoxicité, les travailleurs exposés à la poussière de bois présentent une fréquence significativement plus élevée en MN dans les cellules nasales et buccales que les travailleurs du groupe témoin : un odds ratio de 3.1 a été obtenu pour les cellules nasales (IC 95% : de 1.8 à 5.1) et un odds ratio de 1,8 pour les cellules buccales (IC 95% : de 1.3 à 2.4). En outre, le test des comètes a montré que les travailleurs qui ont déclaré être exposés aux poussières de MDF et/ou de mélaminé avaient des dommages à l'ADN significativement plus élevés que les deux travailleurs exposés à la poussière de bois naturel (sapin, épicéa, hêtre, chêne) et que les travailleurs du groupe témoin (p <.01). Enfin, la fréquence des MN dans les cellules nasales et buccales augmentent avec les années d'exposition aux poussières de bois. Par contre, il n'y a pas de relation dose-réponse concernant la génotoxicité due à l'exposition journalière à la poussière et aux HAP. Cette étude montre qu'une exposition aux HAP eu bien lieu lors des opérations de travail du bois. Les travailleurs exposés aux poussières de bois, et donc aux HAP, courent un risque plus élevé (génotoxicité) par rapport au groupe témoin. Étant donné que certains des HAP détectés sont reconnus potentiellement cancérogènes, il est envisageable que les HAP générés au cours du travail sur les matériaux de bois sont un des agents responsables de la génotoxicité de la poussière de bois et du risque élevé de SNC observé chez les travailleurs du secteur. Etant donné la corrélation entre augmentation de la fréquence des MN, le test des micronoyaux dans les cellules nasales et buccales constitue sans conteste un futur outil pour la biosurveillance et pour la détection précoce du risque de SNC chez les travailleurs. - Exposures to wood dust have been associated with an elevated risk of adenocarcinomas of the Dasal cavity and the paranasal sinuses (sinonasal cancer or SNC) among wood workers. Wood dust is recognized as a human carcinogen by the International Agency for Research on Cancer. However, the specific cancer causative agent(s) and the mechanism(s) behind wood dust related carcinogenesis remains unknown. One possible explanation is a co-exposure to wood dust and polycyclic aromatic hydrocarbons (PAH), the latter being carcinogenic. In addition, wood workers are not only exposed to natural wood but also to wood finishes and composite woods such as wood melamine and medium density fiber (MDF) boards during the manipulation with power tools. The heat produced by the use of power tools can cause the generation of PAH from wood materials. The main objectives of the present thesis are to: (1) quantify possible PAH concentrations in wood dust generated during various common woodworking operations using different wood materials; (2) quantify personal wood dust concentrations and PAH exposures among wood workers; and (3) assess genotoxic effects (i.e., DNA and chromosomal damage) of wood dust and PAH exposure in wood workers. This thesis is composed by a laboratory study (objective 1) and a field study (objectives 2 and 3). In the laboratory study we collected wood dust from different wood materials (fir, MDF, beech, mahagany, oak, and wood melamine) generated during different wood operations (e.g., sanding and sawing) in an experimental chamber under controlled conditions. In the following field study, we monitored 31 male wood workers (furniture and construction workers) exposed to wood dust during their professional activity for two consecutive work shifts. Additionally, we recruited 19 non exposed workers as a control group. We collected from each participant blood samples, and nasal and buccal cell samples. They answered a questionnaire including demographic and life-style data and occupational exposure (current and past). Personal wood dust samples were collected using a closed-face cassette. We used gravimetrie analysis to determine the personal wood dust concentrations and capillary gas chromatography - mass spectrometry analysis to determine PAH concentrations. Genotoxicity was assessed with the micronucleus (MN) assay for nasal and buccal cells and with the comet assay for blood samples. Our results show that PAH (some of them carcinogenic) were present in dust from all six wood materials tested, yet at different concentrations depending on the material. The highest concentration was found in dust from wood melamine (7.95 ppm) and the lowest in MDF (0.24 ppm). Our results also show that workers were individually exposed to low concentrations of PAHs (37.5-119.8 ng m"3) during wood working operations, whereas the concentrations of inhalable dust were relatively high (geometric mean 2.8 mg m"3). Concerning the genotoxicity, wood workers had a significantly higher MN frequency in nasal and buccal cells than the workers in the control group (odds ratio for nasal cells 3.1 (95%CI 1.8-5.1) and buccal cells 1.8 (95%CI 1.3-2.4)). Furthermore, the comet assay showed that workers who reported to be exposed to dust from wooden boards (MDF and wood melamine) had significantly higher DNA damage than both the workers exposed to natural woods (fir, spruce, beech, oak) and the workers in the control group (p < 0.01). Finally, MN frequency in nasal and buccal cells increased with increasing years of exposure to wood dust. However, there was no genotoxic dose-response relationship with the per present day wood dust and PAH exposure. This study shows that PAH exposure occurred during wood working operations. Workers exposed to wood dust, and thus to PAH, had a higher risk for genotoxicity compared to the control group. Since some of the detected PAH are potentially carcinogenic, PAH generated from operations on wood materials may be one of the causative agents for the observed increased genotoxicity in wood workers. Since increased genotoxicity is manifested in an increased MN frequency, the MN assay in nasal and buccal cells may become a relevant biomonitoring tool in the future for early detection of SNC risk.
Resumo:
Le rapport international le plus récent concernant la maltraitance infantile date de 2006 : il s'agit du Rapport mondial sur la violence contre les enfants, du Secrétaire général des Nations Unies (1). La définition retenue pour la maltraitance infantile s'inspire de celle du Rapport mondial sur la violence et la santé, de l'OMS en 2002 (2) : «La menace ou l'utilisation intentionnelle de la force physique ou du pouvoir contre un enfant par un individu ou un groupe qui entraîne ou risque fortement de causer un préjudice à la santé, à la survie, au développement ou à la dignité de l'enfant.». Il existe différentes formes de maltraitance : - la maltraitance physique (brutalités, coups, blessures, brûlures, etc.) la maltraitance psychologique (insultes, humiliation, isolement, terroriser l'enfant, etc.) - la maltraitance sexuelle (exhibitionnisme, attouchements, relations sexuelles, etc.) - les négligences (manque d'attention et de soins) Dans la majorité des cas, plusieurs formes de maltraitances sont présentes chez un enfant victime de mauvais traitements ; elles se chevauchent (3). L'Observatoire national de l'Action Sociale Décentralisée (ODAS) a réalisé une classification des enfants à protéger, les définitions sont les suivantes (4): L'enfant maltraité est « celui qui est victime de violences physiques, d'abus sexuels, de cruauté mentale, de négligences lourdes ayant des conséquences sur son développement physique et psychologique. » L'enfant en risque est « celui qui connaît des conditions d'existence qui risquent de mettre en danger sa santé, sa sécurité, sa moralité, son éducation ou son entretien, mais qui n'est pas pour autant maltraité. » L'enfant en souffrance est « un enfant aimé et soigné mais qui souffre des conditions d'existences qui fragilisent ou menacent son développement et son épanouissement personnel. » En Suisse, peu de données sont disponibles concernant la prévalence de la maltraitance étant donné la difficulté à récolter des données. Selon l'Office Fédéral de la Statistique suisse, les résultats d'une étude de 2004 montre une diminution des châtiments corporels par rapport à une étude semblable réalisée 12 ans auparavant (5). Cependant, la maltraitance infantile est un problème de santé publique du fait de la gravité de ses conséquences sur la santé physique, mentale et sociale de l'individu et de son retentissement sur la communauté ainsi que de sa fréquence estimée dans la population suisse. Elle a des effets néfastes sur la santé de l'enfant par mortalité directe ou morbidité directe ou indirecte et représente également un facteur de risque pour la santé physique et mentale, le développement et les perspectives de réalisation personnelle du jeune adulte et de l'adulte (6). On sait aujourd'hui que le nombre de cas de maltraitance signalés en Suisse est en augmentation. Ceci démontre que la maltraitance est un phénomène courant. Cependant, les professionnels ne pensent pas MF / Travail de master en médecine / 2011-2012 3 que le phénomène de la maltraitance infantile soit en augmentation, mais que les cas de maltraitance sont mieux repérés, que les professionnels s'occupant d'enfants sont plus sensibles à cette problématique et qu'il y a donc davantage de signalements (7). La prévention de la maltraitance est nécessaire et possible. Des interventions ont établi leur efficacité et il a été démontré que plus l'intervention est précoce, plus elle a de chances de réussite (2). C'est la raison pour laquelle il est important de repérer les cas de maltraitance précocement afin de pouvoir intervenir, aider les familles et garantir la protection de l'enfant. Des mesures de prévention ont été mises en place au niveau international, comme au niveau fédéral, pour assurer la reconnaissance et la prise en charge de l'enfant victime de maltraitance. Au niveau international, la Convention internationale des droits de l'enfant a été adoptée par l'Assemblée Générale en 1989 (8). Elle reconnaît l'enfant comme personne indépendante ayant des droits propres. Cette convention est divisée en quatre parties comportant : les principes directeurs (la non-discrimination, viser les meilleurs intérêts pour l'enfant, le droit de vivre, de survivre et de se développer, le droit de participation), les droits de survie et de développement (le droit à avoir les ressources, les compétences et les contributions nécessaires pour pouvoir survivre et pouvoir profiter d'un développement complet), les droits de protection (de toutes les formes de maltraitance envers les enfants, négligences, exploitation et cruauté), les droits de participation (la liberté d'expression de leurs opinions, de parler de sujets qui concernent leur vie sociale, économique, religieuse, culturelle ou politique et d'être écouté, la liberté d'information et la liberté d'association). Les stratégies de prévention de la maltraitance infantile visent à réduire les causes sous- jacentes et les facteurs de risque, tout en renforçant les facteurs de protection, de façon à prévenir de nouveaux cas (9). Elles comprennent : les stratégies sociétales et communautaires (mise en place de réformes juridiques et des droits de la personne humaine, instauration des politiques sociales et économiques favorables, correction des normes sociales et culturelles, réduction des inégalités économiques, réduction du facteur de risque environnemental, formation des professionnels), les stratégies relationnelles (formation parentale et des adultes s'occupant d'enfants), les stratégies individuelles (apprendre aux enfants à reconnaître et à éviter les situations de violence potentielle). En plus des mesures structurelles mises en place par les états (scolarisation obligatoire, dispositif légal, service de protection des enfants et des jeunes, services de santé spécialisés, etc.), des associations de lutte contre la maltraitance infantile existent et jouent également un rôle important dans la prévention. Par exemple, la Fondation Suisse pour la Protection de l'Enfant s'emploie à analyser les causes de la violence envers les MF / Travail de master en médecine / 2011-2012 4 enfants et à les combattre, à protéger les enfants contre la violence physique, psychologique, sexuelle et structurelle ainsi que contre la négligence par le biais d'un travail de prévention ciblé à l'échelle nationale. Elle vise également à apprendre aux enfants comment se protéger eux-mêmes et demander de l'aide, à sensibiliser les adultes qui les entourent au fait que les enfants ont une personnalité propre et qu'ils ont le droit d'être protégés et encouragés et à demander au niveau politique que l'on mette en place des structures adaptées aux enfants (10).
Resumo:
Rapport de synthèse :Grâce au développement de moyens de transport modernes, de plus en plus d'enfants et d'adolescents se rendent en haute altitude dans le cadre de leurs loisirs. Le mal aigu des montagnes est une complication fréquente des séjours en haute altitude. Ses symptômes en sont des maux de tête, une fatigue, des troubles du sommeil, des nausées et des vertiges. La vitesse d'ascension, |'attitude maximale atteinte, une susceptibilité individuelle ainsi qu'une acclimatation antérieure a l'attitude sont tous des facteurs influant sur le risque de développer un mal aigu des montagnes et sur sa sévérité. Bien que très fréquente chez l'adulte, nous ne possédions, au moment d'entreprendre |'étude faisant |'objet de cette thèse, que peu de données solides concernant la prévalence de cette affection chez l'enfant ainsi que sur son évolution au cours du temps. Cette étude a pour but de mesurer la prévalence du mal aigu des montagnes, et son évolution au cours du temps au sein d'un groupe d'enfants et d'adolescents dans des conditions contrôlées. C'est à dire en éliminant |'influence de facteurs confondants tels que l'importance de l'exercice physique fourni ou une différence dans la vitesse d'ascension. Pour ce faire nous avons évalué la présence de mal aigu des montagnes dans un groupe de 48 garçons et de filles âgés de 11 à 17 ans en bonne santé habituelle, n'ayant jamais séjourné en haute altitude au préalable. Afin d'évaluer la présence ou non de mal aigu des montagnes nous avons utilisé une version française du « Lake Louise Score >>. Les mesures furent effectuées 6,24 et 48 heures après |`arrivée à la station de recherche de la Jungfraujoch située à 3'450m. L'ascension a consisté en un trajet de train durant 2h30. Nos observations montrent que la prévalence du mal aigu des montagnes durant les 3 premiers jours ne dépasse jamais les 25%. Elle est similaire pour les deux sexes et diminue au cours du séjour. (17% après 24 heures, 8% après 48 heures) Aucun sujet n'a dû être évacué à une altitude inférieure, Cinq sujets ont eu besoin de recourir à un traitement symptomatique et y ont bien répondu Les résultats de cette étude démontrent que dans le groupe d'âge étudié, après une ascension rapide en haute altitude, la prévalence du mal aigu des montagnes est relativement faible, ses manifestations cliniques sont bénignes et, |lorsqu'' elles sont présentes, se résolvent rapidement. Ces observations suggèrent que pour la majorité des enfants et des adolescents en bonne santé et non habitués a |'attitude, un séjour en haute altitude ne présente pas de risque et une prophylaxie pharmacologique du mal aigu des montagnes n'est pas nécessaire.