172 resultados para All-terrain robots
Resumo:
Within the ENCODE Consortium, GENCODE aimed to accurately annotate all protein-coding genes, pseudogenes, and noncoding transcribed loci in the human genome through manual curation and computational methods. Annotated transcript structures were assessed, and less well-supported loci were systematically, experimentally validated. Predicted exon-exon junctions were evaluated by RT-PCR amplification followed by highly multiplexed sequencing readout, a method we called RT-PCR-seq. Seventy-nine percent of all assessed junctions are confirmed by this evaluation procedure, demonstrating the high quality of the GENCODE gene set. RT-PCR-seq was also efficient to screen gene models predicted using the Human Body Map (HBM) RNA-seq data. We validated 73% of these predictions, thus confirming 1168 novel genes, mostly noncoding, which will further complement the GENCODE annotation. Our novel experimental validation pipeline is extremely sensitive, far more than unbiased transcriptome profiling through RNA sequencing, which is becoming the norm. For example, exon-exon junctions unique to GENCODE annotated transcripts are five times more likely to be corroborated with our targeted approach than with extensive large human transcriptome profiling. Data sets such as the HBM and ENCODE RNA-seq data fail sampling of low-expressed transcripts. Our RT-PCR-seq targeted approach also has the advantage of identifying novel exons of known genes, as we discovered unannotated exons in ~11% of assessed introns. We thus estimate that at least 18% of known loci have yet-unannotated exons. Our work demonstrates that the cataloging of all of the genic elements encoded in the human genome will necessitate a coordinated effort between unbiased and targeted approaches, like RNA-seq and RT-PCR-seq.
Resumo:
Cet article présente les implications particulières de deux expériences de terrain faisant émerger la problématique des apports et de l'utilité de l'anthropologie dans le domaine de la santé. Face aux attentes fortes des interlocuteurs de terrain (demandes d'expertise anthropologique dans le domaine de la prévention du suicide et dans celui de la recherche en soins palliatifs), les chercheuses se sont laissé en partie « détourner » en ne travaillant plus seulement « sur », mais « avec » leurs interlocuteurs. Tout en prenant en compte les risques d'instrumentalisation par le domaine médical, la réflexivité du chercheur face à son implication sur le terrain est considérée comme un outil indispensable pour préserver sa distance critique. Par ailleurs, ces expériences de terrain sont l'occasion de réfléchir à la possibilité de créer des échanges discursifs avec les interlocuteurs du terrain et de favoriser ainsi le changement social depuis l'intérieur.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Low pressure partial melting of basanitic and ankaramitic dykes gave rise to unusual, zebra-like migmatites, in the contact aureole of a layered pyroxenite-gabbro intrusion, in the root zone of an ocean island (Basal Complex, Fuerteventura, Canary Islands). These migmatites are characterised by a dense network of closely spaced, millimetre-wide leucocratic segregations. Their mineralogy consists of plagioclase (An(32-36)), diopside, biotite, oxides (magnetite, ilmenite), +/-amphibole, dominated by plagioclase in the leucosome and diopside in the melanosome. The melanosome is almost completely recrystallised, with the preservation of large, relict igneous diopside phenocrysts in dyke centres. Comparison of whole-rock and mineral major- and trace-element data allowed us to assess the redistribution of elements between different mineral phases and generations during contact metamorphism and partial melting. Dykes within and outside the thermal aureole behaved like closed chemical systems. Nevertheless, Zr, Hf, Y and REEs were internally redistributed, as deduced by comparing the trace element contents of the various diopside generations. Neocrystallised diopside - in the melanosome, leucosome and as epitaxial phenocryst rims - from the migmatite zone, are all enriched in Zr, Hf, Y and REEs compared to relict phenocrysts. This has been assigned to the liberation of trace elements on the breakdown of enriched primary minerals, kaersutite and sphene, on entering the thermal aureole. Major and trace element compositions of minerals in migmatite melanosomes and leucosomes are almost identical, pointing to a syn- or post-solidus reequilibration on the cooling of the migmatite terrain i.e. mineral-melt equilibria were reset to mineral-mineral equilibria. (C) 2007 Elsevier B.V. All rights reserved.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
L'exposition aux poussières de bois est associé à un risque accru d'adénocarcinomes des fosses nasales et des sinus paranasaux (SNC, 'Sinonasal cancer') chez les travailleurs du bois. Les poussières de bois sont ainsi reconnues comme cancérogènes avérés pour l'homme par le Centre international de Recherche sur le Cancer (CIRC). Toutefois, l'agent causal spécifique et le mécanisme sous-jacent relatifs au cancer lié aux poussières de bois demeurent inconnus. Une possible explication est une co-exposition aux poussières de bois et aux Hydrocarbures Aromatiques Polycycliques (HAP), ces derniers étant potentiellement cancérogènes. Dans les faits, les travailleurs du bois sont non seulement exposés aux poussières de bois naturel, mais également à celles générées lors d'opérations effectuées à l'aide de machines (ponceuses, scies électriques, etc.) sur des finitions de bois (bois traités) ou sur des bois composites, tels que le mélaminé et les panneaux de fibres à densité moyenne (MDF, 'Medium Density Fiberboard'). Des HAP peuvent en effet être générés par la chaleur produite par l'utilisation de ces machines sur la surface du bois. Les principaux objectifs de cette thèse sont les suivants: (1) quantifier HAP qui sont présents dans les poussières générées lors de diverses opérations courantes effectuées sur différents bois (2) quantifier l'exposition individuelle aux poussières de bois et aux HAP chez les travailleurs, et (3) évaluer les effets génotoxiques (dommages au niveau de l'ADN et des chromosomes) due à l'exposition aux poussières de bois et aux HAP. Cette thèse est composée par une étude en laboratoire (objectif 1) et par une étude de terrain (objectifs 2 et 3). Pour l'étude en laboratoire, nous avons collecté des poussières de différents type de bois (sapin, MDF, hêtre, sipo, chêne, bois mélaminé) générées au cours de différentes opérations (comme le ponçage et le sciage), et ceci dans une chambre expérimentale et dans des conditions contrôlées. Ensuite, pour l'étude de terrain, nous avons suivi, dans le cadre de leur activité professionnelle, 31 travailleurs de sexe masculin (travailleurs du bois et ébenistes) exposés aux poussières de bois pendant deux jours de travail consécutifs. Nous avons également recruté, comme groupe de contrôle, 19 travailleurs non exposés. Pour effectuer une biosurveillance, nous avons collecté des échantillons de sang et des échantillons de cellules nasales et buccales pour chacun des participants. Ces derniers ont également rempli un questionnaire comprenant des données démographiques, ainsi que sur leur style de vie et sur leur exposition professionnelle. Pour les travailleurs du bois, un échantillonnage individuel de poussière a été effectué sur chaque sujet à l'aide d'une cassette fermée, puis nous avons évalué leur exposition à la poussière de bois et aux HAP, respectivement par mesure gravimétrique et par Chromatographie en phase gazeuse combinée à la spectrométrie de masse. L'évaluation des dommages induits à l'ADN et aux chromosomes (génotoxicité) a été, elle, effectuée à l'aide du test des micronoyaux (MN) sur les cellules nasales et buccales et à l'aide du test des comètes sur les échantillons de sang. Nos résultats montrent dans la poussière de la totalité des 6 types de bois étudiés la présence de HAP (dont certains sont cancérogènes). Des différences notoires dans les concentrations ont été néanmoins constatées en fonction du matériau étudié : les concentrations allant de 0,24 ppm pour la poussière de MDF à 7.95 ppm pour le mélaminé. Nos résultats montrent également que les travailleurs ont été exposés individuellement à de faibles concentrations de HAP (de 37,5 à 119,8 ng m-3) durant les opérations de travail du bois, alors que les concentrations de poussières inhalables étaient relativement élevés (moyenne géométrique de 2,8 mg m-3). En ce qui concerne la génotoxicité, les travailleurs exposés à la poussière de bois présentent une fréquence significativement plus élevée en MN dans les cellules nasales et buccales que les travailleurs du groupe témoin : un odds ratio de 3.1 a été obtenu pour les cellules nasales (IC 95% : de 1.8 à 5.1) et un odds ratio de 1,8 pour les cellules buccales (IC 95% : de 1.3 à 2.4). En outre, le test des comètes a montré que les travailleurs qui ont déclaré être exposés aux poussières de MDF et/ou de mélaminé avaient des dommages à l'ADN significativement plus élevés que les deux travailleurs exposés à la poussière de bois naturel (sapin, épicéa, hêtre, chêne) et que les travailleurs du groupe témoin (p <.01). Enfin, la fréquence des MN dans les cellules nasales et buccales augmentent avec les années d'exposition aux poussières de bois. Par contre, il n'y a pas de relation dose-réponse concernant la génotoxicité due à l'exposition journalière à la poussière et aux HAP. Cette étude montre qu'une exposition aux HAP eu bien lieu lors des opérations de travail du bois. Les travailleurs exposés aux poussières de bois, et donc aux HAP, courent un risque plus élevé (génotoxicité) par rapport au groupe témoin. Étant donné que certains des HAP détectés sont reconnus potentiellement cancérogènes, il est envisageable que les HAP générés au cours du travail sur les matériaux de bois sont un des agents responsables de la génotoxicité de la poussière de bois et du risque élevé de SNC observé chez les travailleurs du secteur. Etant donné la corrélation entre augmentation de la fréquence des MN, le test des micronoyaux dans les cellules nasales et buccales constitue sans conteste un futur outil pour la biosurveillance et pour la détection précoce du risque de SNC chez les travailleurs. - Exposures to wood dust have been associated with an elevated risk of adenocarcinomas of the Dasal cavity and the paranasal sinuses (sinonasal cancer or SNC) among wood workers. Wood dust is recognized as a human carcinogen by the International Agency for Research on Cancer. However, the specific cancer causative agent(s) and the mechanism(s) behind wood dust related carcinogenesis remains unknown. One possible explanation is a co-exposure to wood dust and polycyclic aromatic hydrocarbons (PAH), the latter being carcinogenic. In addition, wood workers are not only exposed to natural wood but also to wood finishes and composite woods such as wood melamine and medium density fiber (MDF) boards during the manipulation with power tools. The heat produced by the use of power tools can cause the generation of PAH from wood materials. The main objectives of the present thesis are to: (1) quantify possible PAH concentrations in wood dust generated during various common woodworking operations using different wood materials; (2) quantify personal wood dust concentrations and PAH exposures among wood workers; and (3) assess genotoxic effects (i.e., DNA and chromosomal damage) of wood dust and PAH exposure in wood workers. This thesis is composed by a laboratory study (objective 1) and a field study (objectives 2 and 3). In the laboratory study we collected wood dust from different wood materials (fir, MDF, beech, mahagany, oak, and wood melamine) generated during different wood operations (e.g., sanding and sawing) in an experimental chamber under controlled conditions. In the following field study, we monitored 31 male wood workers (furniture and construction workers) exposed to wood dust during their professional activity for two consecutive work shifts. Additionally, we recruited 19 non exposed workers as a control group. We collected from each participant blood samples, and nasal and buccal cell samples. They answered a questionnaire including demographic and life-style data and occupational exposure (current and past). Personal wood dust samples were collected using a closed-face cassette. We used gravimetrie analysis to determine the personal wood dust concentrations and capillary gas chromatography - mass spectrometry analysis to determine PAH concentrations. Genotoxicity was assessed with the micronucleus (MN) assay for nasal and buccal cells and with the comet assay for blood samples. Our results show that PAH (some of them carcinogenic) were present in dust from all six wood materials tested, yet at different concentrations depending on the material. The highest concentration was found in dust from wood melamine (7.95 ppm) and the lowest in MDF (0.24 ppm). Our results also show that workers were individually exposed to low concentrations of PAHs (37.5-119.8 ng m"3) during wood working operations, whereas the concentrations of inhalable dust were relatively high (geometric mean 2.8 mg m"3). Concerning the genotoxicity, wood workers had a significantly higher MN frequency in nasal and buccal cells than the workers in the control group (odds ratio for nasal cells 3.1 (95%CI 1.8-5.1) and buccal cells 1.8 (95%CI 1.3-2.4)). Furthermore, the comet assay showed that workers who reported to be exposed to dust from wooden boards (MDF and wood melamine) had significantly higher DNA damage than both the workers exposed to natural woods (fir, spruce, beech, oak) and the workers in the control group (p < 0.01). Finally, MN frequency in nasal and buccal cells increased with increasing years of exposure to wood dust. However, there was no genotoxic dose-response relationship with the per present day wood dust and PAH exposure. This study shows that PAH exposure occurred during wood working operations. Workers exposed to wood dust, and thus to PAH, had a higher risk for genotoxicity compared to the control group. Since some of the detected PAH are potentially carcinogenic, PAH generated from operations on wood materials may be one of the causative agents for the observed increased genotoxicity in wood workers. Since increased genotoxicity is manifested in an increased MN frequency, the MN assay in nasal and buccal cells may become a relevant biomonitoring tool in the future for early detection of SNC risk.
Resumo:
This paper presents the general regression neural networks (GRNN) as a nonlinear regression method for the interpolation of monthly wind speeds in complex Alpine orography. GRNN is trained using data coming from Swiss meteorological networks to learn the statistical relationship between topographic features and wind speed. The terrain convexity, slope and exposure are considered by extracting features from the digital elevation model at different spatial scales using specialised convolution filters. A database of gridded monthly wind speeds is then constructed by applying GRNN in prediction mode during the period 1968-2008. This study demonstrates that using topographic features as inputs in GRNN significantly reduces cross-validation errors with respect to low-dimensional models integrating only geographical coordinates and terrain height for the interpolation of wind speed. The spatial predictability of wind speed is found to be lower in summer than in winter due to more complex and weaker wind-topography relationships. The relevance of these relationships is studied using an adaptive version of the GRNN algorithm which allows to select the useful terrain features by eliminating the noisy ones. This research provides a framework for extending the low-dimensional interpolation models to high-dimensional spaces by integrating additional features accounting for the topographic conditions at multiple spatial scales. Copyright (c) 2012 Royal Meteorological Society.
Resumo:
pH monitoring has been used as a diagnostic tool in gastro-oesophageal reflux disease (GERD) for many years. Recent studies have shown that wireless capsule pH monitoring is better tolerated and interferes less with daily activities as compared to traditional catheter-based pH monitoring. Moreover, prolonged recording time (48 h instead of 24 h) is possible with wireless pH monitoring. The main secondary effect of wireless capsule pH monitoring is induction of thoracic discomfort in 10-65% of the patients, which can vary from mild foreign body sensation to severe chest pain. Sensitivity and specificity of wireless capsule monitoring is comparable to that of traditional pH monitoring. It has not been proven yet that better tolerability and a longer recording time increases the diagnostic yield of wireless capsule monitoring in GERD.
Resumo:
Résumé: Le département de Gaya, cadre de notre étude, est situé au sud-ouest de la république du Niger. Il dispose d'un important potentiel hydrique composé des eaux de surface (une centaine de mares permanentes, le fleuve Niger sur 106 km) et de sept aquifères superposés comprenant des nappes de subsurface (affleurantes par endroit) et des nappes artésiennes. L'étude sur les usages de l'eau à Gaya a été menée à travers plusieurs axes centrés sur l'estimation et la répartition spatiale des ressources en eau, le cadre juridique et institutionnel régulant leur mise en valeur, les différents secteurs d'utilisation de l'eau ainsi que les contraintes affectant cette utilisation. L'usage de la cartographie à travers les SIG dans le traitement et l'analyse des données, couplée à notre expérience d'une dizaine d'année de travaux dans la région, a permis de dresser des synthèses richement illustrées permettant de mieux comprendre tous les enjeux liés à la problématique des usages de l'eau dans cette partie du Niger. Contrairement à la vision que l'on a traditionnellement du Sahel où le manque d'eau constitue une des contraintes majeures au développement, ici des conditions locales particulières contredisent ce cliché et transposent le débat sur un autre plan. Il s'agit de la maîtrise de l'eau au niveau local à travers l'élaboration d'une politique appropriée qui tienne compte non seulement des spécificités locales de la ressource, mais aussi des différents types d'usages. La politique de l'eau au Niger, définie selon le Schéma directeur de mise en valeur et de gestion des ressources en eau, à travers la mise en place d'un important arsenal juridique et institutionnel, a eu le mérite de tracer un canevas sur la question, mais a montré ses limites au niveau pratique après dix ans d'essai. En effet au niveau de Gaya, ni l'Etat ni les partenaires au développement (bailleurs de fonds extérieurs) n'ont tenu compte des caractéristiques locales de la ressource ou du contexte socioéconomique particulier de la région. Ce qui a entraîné la réalisation d'infrastructures inadaptées aux réalités hydrogéologiques locales ainsi que des choix inappropriés au niveau de certains aménagements. En dépit de l'abondance de la ressource, son accès tant au niveau quantitatif que qualitatif, reste difficile pour une grande partie des acteurs ruraux. Les différents handicaps rencontrés dans la mise en valeur des ressources en eau résultent de cette incohérence de la politique nationale de l'eau, mais aussi de la difficulté de son application sur le terrain où persiste un pluralisme juridique caractérisé par la cohabitation de deux systèmes de régulation à savoir les droits coutumiers et la législation moderne. Ces différents éléments mis en évidence dans cette étude sur la zone de Gaya pourraient servir de base pour un meilleur aménagement des ressources en eau dans le cadre plus large d'une politique d'aménagement du territoire prenant en compte tous les facteurs tant physiques que socioéconomiques de la région. Abstract: The department of Gaya, in which this study was done, is located in the SW area of the Republic of Niger. It has an important hydrological potential composed of surface water (approximately 100 permanent ponds, 106 km of the Niger River) and 7 bodies of underground water sources including sub-surface and artresan wells. This study of the exploitation of wtaer in Gaya has been carried out employing several parameters based on: the estimation and spacial distribution of water ressources, the juridic and institutional rules governing their utilisation and the various constraints affecting this exploitation. The use of mapping when treating and analysing data, coupled with ten years personel field experience, resulted in a richly illustrated synthesis of this data. This, in turn, led to a better comprehension of all the factors related to problems of water utilisation in this particular region of Niger. Contrary to the generally accepted view that the lack of water ressources is a major contributing factor to the lack of development in the Sahel, in Gaya the local conditions contradict this statement. In this region, and at the local level, the proper use of water is based on the elaboration of an appropriate policy which takes into account not only the local specifics of water ressources but the various types of water utilsation as well. Local use of water and water ressources are dependant on established rules. Water policy in Niger is defined by the General Schema based on an important institutional and judicary arsenal of rules and regulations. However, after a ten-year trial period, this system was shown to have its limitations. In Gaya, neither the State nor the development agencies took into consideration local characteristics nor the socio-economic context of the region. This, in turn, resulted in putting in place infrastructures that were not adapted to local hydrogeological realities as well as inappropriate choices in land planning and development. In spite of the abundance of water ressources, access to them remains difficult for most of the rural population. The various difficulties encountered are the result of incoherent water policies on a national level as well as the lack of practical application in this area. This is due to a double judicary system where two regulatory systems co-exist:traditional laws and modern legislation. the different elements brought out by this study could serve as a basis for a better utilisation of water ressources on a larger scale in which land planning and development policies would take into consideration all the physcial as well as the socio-economical factors of this region.