193 resultados para Écoles à haute densité multiethnique
Resumo:
The integration of specific institutions for teacher education into the higher education system represents a milestone in the Swiss educational policy and has broad implications. This thesis explores organizational and institutional change resulting from this policy reform, and attempts to assess structural change in terms of differentiation and convergence within the system of higher education. Key issues that are dealt with are, on the one hand, the adoption of a research function by the newly conceptualized institutions of teacher education, and on the other, the positioning of the new institutions within the higher education system. Drawing on actor-centred approaches to differentiation, this dissertation discusses system-level specificities of tertiarized teacher education and asks how this affects institutional configurations and actor constellations. On the basis of qualitative and quantitative empirical data, a comparative analysis has been carried out including case studies of four universities of teacher education as well as multivariate regression analysis of micro-level data on students' educational choices. The study finds that the process of system integration and adaption to the research function by the various institutions have unfolded differently depending on the institutional setting and the specific actor constellations. The new institutions have clearly made a strong push to position themselves as a new institutional type and to find their identity beyond the traditional binary divide which assigns the universities of teacher education to the college sector. Potential conflicts have been identified in divergent cognitive normative orientations and perceptions of researchers, teacher educators, policy-makers, teachers, and students as to the mission and role of the new type of higher education institution. - L'intégration dans le système d'enseignement supérieur d'institutions qui ont pour tâche spécifique de former des enseignants peut être considérée comme un événement majeur dans la politique éducative suisse, qui se trouve avoir des conséquences importantes à plusieurs niveaux. Cette thèse explore les changements organisationnels et institutionnels résultant de cette réforme politique, et elle se propose d'évaluer en termes de différentiation et de convergence les changements structurels intervenus dans le système d'éducation tertiaire. Les principaux aspects traités sont d'une part la nouvelle mission de recherche attribuée à ces institutions de formation pédagogique, et de l'autre la place par rapport aux autres institutions du système d'éducation tertiaire. Recourant à une approche centrée sur les acteurs pour étudier les processus de différen-tiation, la thèse met en lumière et en discussion les spécificités inhérentes au système tertiaire au sein duquel se joue la formation des enseignants nouvellement conçue et soulève la question des effets de cette nouvelle façon de former les enseignants sur les configurations institutionnelles et les constellations d'acteurs. Une analyse comparative a été réalisée sur la base de données qualitatives et quantitatives issues de quatre études de cas de hautes écoles pédagogiques et d'analyses de régression multiple de données de niveau micro concernant les choix de carrière des étudiants. Les résultats montrent à quel point le processus d'intégration dans le système et la nouvelle mission de recherche peuvent apparaître de manière différente selon le cadre institutionnel d'une école et la constellation spécifique des acteurs influents. A pu clairement être observée une forte aspiration des hautes écoles pédagogiques à se créer une identité au-delà de la structure binaire du système qui assigne la formation des enseignants au secteur des hautes écoles spéciali-sées. Des divergences apparaissent dans les conceptions et perceptions cognitives et normatives des cher-cheurs, formateurs, politiciens, enseignants et étudiants quant à la mission et au rôle de ce nouveau type de haute école. - Die Integration spezieller Institutionen für die Lehrerbildung ins Hochschulsystem stellt einen bedeutsamen Schritt mit weitreichenden Folgen in der Entwicklung des schweizerischen Bildungswesens dar. Diese Dissertation untersucht die mit der Neuerung verbundenen Veränderungen auf organisatorischer und institutioneller Ebene und versucht, die strukturelle Entwicklung unter den Gesichtspunkten von Differenzierung und Konvergenz innerhalb des tertiären Bildungssystems einzuordnen. Zentrale Themen sind dabei zum einen die Einführung von Forschung und Entwicklung als zusätzlichem Leistungsauftrag in der Lehrerbildung und zum andern die Positionierung der pädagogischen Hochschulen innerhalb des Hochschulsystems. Anhand akteurzentrierter Ansätze zur Differenzierung werden die Besonderheiten einer tertiarisierten Lehrerbildung hinsichtlich der Systemebenen diskutiert und Antworten auf die Frage gesucht, wie die Reform die institutionellen Konfigurationen und die Akteurkonstellationen beeinflusst. Auf der Grundlage qualitativer und quantitativer Daten wurde eine vergleichende Analyse durchgeführt, welche Fallstudien zu vier pädagogischen Hochschulen umfasst sowie Regressionsanalysen von Mikrodaten zur Studienwahl von Maturanden. Die Ergebnisse machen deutlich, dass sich der Prozess der Systemintegration und die Einführung von Forschung in die Lehrerbildung in Abhängigkeit von institutionellen Ordnungen und der jeweiligen Akteurkonstellation unterschiedlich gestalten. Es lässt sich bei den neu gegründeten pädagogischen Hochschulen ein starkes Bestreben feststellen, sich als neuen Hochschultypus zu positionieren und sich eine Identität zu schaffen jenseits der herkömmlichen binären Struktur, welche die pädagogischen Hochschulen dem Fachhochschul-Sektor zuordnet. Potentielle Konflikte zeichnen sich ab in den divergierenden kognitiven und normativen Orientierungen und Wahrnehmungen von Forschern, Ausbildern, Bildungspolitikern, Lehrern und Studierenden hinsichtlich des Auftrags und der Rolle dieses neuen Typs Hochschule.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Résumé La structure, ou l'architecture, des êtres vivants définit le cadre dans lequel la physique de la vie s'accomplit. La connaissance de cette structure dans ses moindres détails est un but essentiel de la biologie. Son étude est toutefois entravée par des limitations techniques. Malgré son potentiel théorique, la microscopie électronique n'atteint pas une résolution atomique lorsqu'elle est appliquée ä la matièxe biologique. Cela est dû en grande partie au fait qu'elle contient beaucoup d'eau qui ne résiste pas au vide du microscope. Elle doit donc être déshydratée avant d'être introduite dans un microscope conventionnel. Des artéfacts d'agrégation en découlent inévitablement. La cryo-microscopie électronique des sections vitreuses (CEMOVIS) a ëté développée afin de résoudre cela. Les spécimens sont vitrifiés, c.-à-d. que leur eau est immobilisée sans cristalliser par le froid. Ils sont ensuite coupés en sections ultrafines et celles-ci sont observées à basse température. Les spécimens sont donc observés sous forme hydratée et non fixée; ils sont proches de leur état natif. Durant longtemps, CEMOVIS était très difficile à exécuter mais ce n'est plus le cas. Durant cette thèse, CEMOVIS a été appliqué à différents spécimens. La synapse du système nerveux central a été étudiée. La présence dans la fente synaptique d'une forte densité de molécules organisées de manière périodique a été démontrée. Des particules luminales ont été trouvées dans Ies microtubules cérébraux. Les microtubules ont servi d'objets-test et ont permis de démontrer que des détails moléculaires de l'ordre du nm sont préservés. La compréhension de la structure de l'enveloppe cellulaire des bactéries Grampositives aété améliorée. Nos observations ont abouti à l'élaboration d'un nouveau modèle hypothétique de la synthèse de la paroi. Nous avons aussi focalisé notre attention sur le nucléoïde bactérien et cela a suscité un modèle de la fonction des différents états structuraux du nucléoïde. En conclusion, cette thèse a démontré que CEMOVIS est une excellente méthode poux étudier la structure d'échantillons biologiques à haute résolution. L'étude de la structure de divers aspects des êtres vivants a évoqué des hypothèses quant à la compréhension de leur fonctionnement. Summary The structure, or the architecture, of living beings defines the framework in which the physics of life takes place. Understanding it in its finest details is an essential goal of biology. Its study is however hampered by technical limitations. Despite its theoretical potential, electron microscopy cannot resolve individual atoms in biological matter. This is in great part due to the fact. that it contains a lot of water that cannot stand the vacuum of the microscope. It must therefore be dehydrated before being introduced in a conventional mìcroscope. Aggregation artefacts unavoidably happen. Cryo-electron microscopy of vitreous sections (CEMOVIS) has been developed to solve this problem. Specimens are vitrified, i.e. they are rapidly cooled and their water is immobilised without crystallising by the cold. They are then. sectioned in ultrathin slices, which are observed at low temperatures. Specimens are therefore observed in hydrated and unfixed form; they are close to their native state. For a long time, CEMOVIS was extremely tedious but this is not the case anymore. During this thesis, CEMOVIS was applied to different specimens. Synapse of central nervous system was studied. A high density of periodically-organised molecules was shown in the synaptic cleft. Luminal particles were found in brain microtubules. Microtubules, used as test specimen, permitted to demonstrate that molecular details of the order of nm .are preserved. The understanding of the structure of cell envelope of Gram-positive bacteria was improved. Our observations led to the elaboration of a new hypothetic model of cell wall synthesis. We also focused our attention on bacterial nucleoids and this also gave rise to a functional model of nucleoid structural states. In conclusion, this thesis demonstrated that CEMOVIS is an excellent method for studying the structure of bìologìcal specimens at high resolution. The study of the structure of various aspects of living beings evoked hypothesis for their functioning.
Resumo:
While it has often been stated that prevalence of schizophrenia is the same around the world, many publications have shown this illness is twice more frequent in urban areas. Although many hypotheses have been proposed, the mechanisms explaining this phenomenon are still unknown. Besides potential biological explanations, a certain number of hypotheses emerging from social sciences have recently enriched the debate. This article reviews the literature related to this issue and describes the development of a research projects conducted in collaboration between the Institut of Geography at the University of Neuchâtel, the Department of Psychiatry at the Lausanne University and the Swiss branch of ISPS, a society promoting the psychological treatment of schizophrenia and other psychoses.
Resumo:
Un changement de paradigme intervient en matière de gestion d'écoles. Stratégie de développement et pilotage à l'aide d'indicateurs se conjuguent désormais pour favoriser l'amélioration continue.
Resumo:
Upper gastrointestinal bleeding is a potentially serious event, usually requiring urgent endoscopic treatment. Better stratification of the risk of complication or death could optimize management and improve patient outcomes, while ensuring adequate resource allocation. Several prognostic scores have been developed, in order to identify high risk patients, who require immediate treatment, and patients at low risk for whom endoscopy may be delayed. An ideal prognostic score should be accurate, simple, reproducible, and prospectively validated in different populations. Published scores meet these requirements only partially, and thus can only be used as part of an integrative diagnostic and therapeutic process.
Resumo:
This paper compares the inflectional diversity and density of adjectives and verbs in French CS, CDS, and ADS samples in a social perspective. The aim of the study is to show that the relation between CS, CDS, and ADS is not identical as far as verb and adjective inflection is concerned. We firstly expected verb inflectional morphology to be less diverse and dense in CDS and CS than in ADS. Conversely, we predicted adjective inflectional diversity and density to be higher in CDS and CS. Interestingly the findings do not exactly match the first prediction. The social implications of the study are discussed.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Les collectivités d'enfants, comme les écoles, mettent en contact de nombreuses personnes dans un espace restreint. Cette proximité peut favoriser la transmission croisée de micro-organismes infectieux. Les épidémies de varicelle, conjonctivite virale, rougeole et gastro-entérite, et la transmission de parasites comme les poux sont fréquentes dans les établissements scolaires et affectent les enfants et le personnel encadrant dont les enseignants. Ce risque professionnel est souvent négligé car considéré comme inévitable. À côté des risques infectieux, d'autres risques liés à des micro-organismes environnementaux et à leurs constituants comme les endotoxines peuvent exister. Ainsi, des études ont montré que les concentrations aéroportées de particules à l'intérieur des classes d'école étaient plus élevées qu'à l'extérieur (1) et que leur composition chimique était différente (2). Plusieurs études épidémiologiques ont montré un lien clair entre l'exposition à des particules et différents problèmes de santé notamment des problèmes respiratoires et cardiaques. Cette exposition à des particules en suspension dans l'air peut avoir des effets toxiques sur les cellules épithéliales des voies respiratoires. Deux études récentes menées dans des écoles et portant sur les particules aéroportées sont analysées ci-dessous. La première étude a évalué les effets biologiques in vitro de particules collectées dans des classes d'écoles en Allemagne et la seconde étude a mesuré les concentrations aéroportées de différents indicateurs de la qualité de l'air dont les micro-organismes dans des écoles au Portugal.
Resumo:
Résumé : Au travers de l'étude des régions de Crans-Montana-Sierre (Valais, Suisse) et de Chamonix-Mont-Blanc (Haute-Savoie, France), cette recherche considère les liens existants entre activités touristiques et sciences de la Terre. Ainsi, les sites géologiques et géomorphologiques pris en compte sont perçus comme ayant non seulement une valeur scientifique, mais aussi un intérêt scénique, culturel et économique. D'un point de vue (géo)touristique, différents modèles d'analyse sont proposés pour expliciter les composantes de l'offre et de la demande et comprendre le cycle de vie des objets étudiés. L'offre que constituent ces sites est tout d'abord présentée afin d'évaluer leurs différents potentiels, ainsi que l'utilisation spatio-temporelle, didactique et économique qui en est faite. Ensuite, les logiques d'acteurs sont analysées au travers des phases de valorisation, d'exploitation et de transformation, dans le but de comprendre les facteurs et les projets d'utilisation les concernant. Enfin, la demande des différents publics cibles, de même que leurs caractéristiques socio-touristiques et (géo)didactiques, sont discutées. Pour ce faire, des méthodes d'inventaire, d'évaluation, d'entretien et de questionnaire ont été utilisées, à différentes échelles d'analyse. On constate d'abord que le pôle des valeurs scénique et économique présente une plus forte mise à contribution, par rapport à l'utilisation didactique. De plus, le niveau de protection des sites ne restreint généralement pas leur exploitation, au contraire du facteur risque. Du point de vue des publics cibles, une forte demande d'explications didactiques est exprimée, s'orientant vers une approche multithématique des potentiels à mettre en valeur; des biens et services de base sont ainsi demandés. Enfin, force est de constater que seuls de grands projets peuvent rendre les activités (géo)touristiques rentables. A l'avenir, sachant que le géotourisme peut répondre à une demande touristique liée au rêve et à l'émotion, l'approche de l'offre devrait intégrer une réflexion en didactique des sciences de la Terre, d'autant que cette forme de tourisme tend à devenir une composante du développement économique régional, notamment en dehors de la saison d'hiver. Idéalement, l'utilisation touristique de la géodiversité devrait s'accompagner d'une politique de protection dynamique, combinant préservation et mise en valeur. A terme, le but ultime de cette entreprise est notamment d'élargir la notion de patrimoine culturel, pour favoriser une approche transdisciplinaire du paysage Abstract : Based on the study of the areas of Crans-Montana-Sierre (Valais, Switzerland) and Chamonix-Mont-Blanc (Haute-Savoie, France), this study considers the links between tourism activities and Earth science. Thus, the studied geological and geomorphological sites have not only a scientific va1ue, but also scenic, cultural and economic value. From a point of view of tourism, different models of analysis are examined in order to explain the components of the supply and the demand, and to understand the life cycles of the considered objects. The primary product of these sites is first presented, in order to assess their different potential as well as their didactic, economic, spatial and temporal use. The stakeholders' behaviour is then analysed to understand the factors and projected use, with the help of the optimisation, exploitation and transformation phases. Finally, the demand of the different target markets as well as their socio-tourist and (geo)didactic characteristics are discussed. To complete this study, methods of census, assessment, interviewing and questionnaire surveying are used, at different scales of analysis. The main results appear to demonstrate that the scenic and economic values present a higher value relative to the didactic use. Moreover, the required conservation measures for the studied sites do not generally restrict the use, on the contrary to the "risk" factor. From the point of view of the target market, a relevant requirement for explanatory commentary is expressed and tends towards an approach optimising different themes to utilise potential; basic popular goods and services are also requested. Finally, it is clearly demonstrated that only relevant projects are able to make this kind of activity profitable. For the future, geotourism may be marketed to a tourist demand for imagination and emotion. Consequently, the product approach should integrate a reflection on Earth science popularisation given that this branch of tourism tends to receive a component of the economic and regional development, notably during the summer period. However, the use of geodiversity should include a concept of dynamic management, taking into account conservation as well as tourism development. Thus, the final aim of this process is to r,r'iden the notion of cultural heritage, in order to stimulate a multidisciplinary approach to the landscape.