1000 resultados para Environnement simulé (Méthode pédagogique)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present prospective study, with a five-year follow-up, presents an extensive psychiatric and educational assessment of an adolescent population (N = 30) in the age range 14-20, suffering from several psychiatric disorders, though apt to follow a normal academic program. The residential settings where the study took place provide both psychiatric and schooling facilities. In this environment, what is the effectiveness of long-term hospitalization? Are there any criteria for predicting results? After discharge, could social adjustments difficulties be prevented? Assessment instruments are described and the results of one preliminary study are presented. The actual data seems to confirm the impact of the special treatment facilities combining schooling and psychiatric settings on the long term outcome of adolescents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Polyphosphate (iPOP) is a linear polymer of orthophosphate units linked together by high energy phosphoanhydride bonds. It is found in all organisms, localized in organelles called acidocalcisomes and ranges from a few to few hundred monomers in length. iPOP has been found to play a vast array of roles in all organisms, including phosphate and energy metabolism, regulation of enzymes, virulence, pathogenicity, bone remodelling and blood clotting, among many others. Recently it was found that iPOP levels were increased in myeloma cells. The growing interest in iPOP in human cell lines makes it an interesting molecule to study. However, not much is known about its metabolism in eukaryotes. Acidocalcisomes are electron dense, acidic organelles that belong to the group of Lysosome Related Organelles (LROs). The conservation of acidocalcisomes among all kingdoms of life is suggestive of their important roles for the organisms. However, they are difficult to analyse because of limited biochemical tools for investigation. Yeast vacuoles present remarkable similarities to acidocalcisomes in terms of their physiological and structural features, including synthesis and storage of iPOP, which make them an ideal candidate to study biological processes which are shared between vacuoles and acidocalcisomes. The availability of tools for genetic manipulation and isolation of vacuoles makes yeast a candidate of choice for the characterization of iPOP synthesis in eukaryotes. Our group has identified the Vacuolar Transporter Chaperone (VTC) complex as iPOP polymerase and identified the catalytic subunit (Vtc4). The goal of my study was to characterize the process of iPOP synthesis by isolated vacuoles and to reconstitute iPOP synthesis in liposomes. The first step was to develop a method for monitoring iPOP by isolated vacuoles over time and comparing it with previously known methods. Next, a detailed characterization was performed to determine the modulators of the process, both for intact as well as solubilized vacuoles. Finally, attempts were made to purify the VTC complex and reconstitute it in liposomes. A parallel line of study was the translocation and storage of synthesized iPOP in the lumen of the vacuoles. As a result of this study, it is possible to determine distinct pools of iPOP- inside and outside the vacuolar lumen. Additionally, I establish that the vacuolar lysate withstands harsh steps during reconstitution on liposomes and retains iPOP synthesizing activity. The next steps will be purification of the intact VTC complex and its structure determination by cryo-electron microscopy. - Les organismes vivants sont composés d'une ou plusieurs cellules responsables des processus biologiques élémentaires tels que la digestion, la respiration, la synthèse et la reproduction. Leur environnement interne est en équilibre et ils réalisent un très grand nombre de réactions chimiques et biochimiques pour maintenir cet équilibre. A différents compartiments cellulaires, ou organelles, sont attribuées des tâches spécifiques pour maintenir les cellules en vie. L'étude de ces fonctions permet une meilleure compréhension de la vie et des organismes vivants. De nombreux processus sont bien connus et caractérisés mais d'autres nécessitent encore des investigations détaillées. L'un de ces processus est le métabolisme des polyphosphates. Ces molécules sont des polymères linéaires de phosphate inorganique dont la taille peut varier de quelques dizaines à quelques centaines d'unités élémentaires. Ils sont présents dans tous les organismes, des bactéries à l'homme. Ils sont localisés principalement dans des compartiments cellulaires appelés acidocalcisomes, des organelles acides observés en microscopie électronique comme des structures denses aux électrons. Les polyphosphates jouent un rôle important dans le stockage et le métabolisme de l'énergie, la réponse au stress, la virulence, la pathogénicité et la résistance aux drogues. Chez l'homme, ils sont impliqués dans la coagulation du sang et le remodelage osseux. De nouvelles fonctions biologiques des polyphosphates sont encore découvertes, ce qui accroît l'intérêt des chercheurs pour ces molécules. Bien que des progrès considérables ont été réalisés afin de comprendre la fonction des polyphosphates chez les bactéries, ce qui concerne la synthèse, le stockage et la dégradation des polyphosphates chez les eucaryotes est mal connu. Les vacuoles de la levure Saccharomyces cerevisiae sont similaires aux acidocalcisomes des organismes supérieurs en termes de structure et de fonction. Les acidocalcisomes sont difficiles à étudier car il n'existe que peu d'outils génétiques et biochimiques qui permettent leur caractérisation. En revanche, les vacuoles peuvent être aisément isolées des cellules vivantes et manipulées génétiquement. Les vacuoles comme les acidocalcisomes synthétisent et stockent les polyphosphates. Ainsi, les découvertes faites grâce aux vacuoles de levures peuvent être extrapolées aux acidocalcisomes des organismes supérieurs. Le but de mon projet était de caractériser la synthèse des polyphosphates par des vacuoles isolées. Au cours de mon travail de thèse, j'ai mis au point une méthode de mesure de la synthèse des polyphosphates par des organelles purifés. Ensuite, j'ai identifié des composés qui modulent la réaction enzymatique lorsque celle-ci a lieu dans la vacuole ou après solubilisation de l'organelle. J'ai ainsi pu mettre en évidence deux groupes distincts de polyphosphates dans le système : ceux au-dehors de la vacuole et ceux en-dedans de l'organelle. Cette observation suggère donc très fortement que les vacuoles non seulement synthétisent les polyphosphates mais aussi transfère les molécules synthétisées de l'extérieur vers l'intérieur de l'organelle. Il est très vraisemblable que les vacuoles régulent le renouvellement des polyphosphates qu'elles conservent, en réponse à des signaux cellulaires. Des essais de purification de l'enzyme synthétisant les polyphosphates ainsi que sa reconstitution dans des liposomes ont également été entrepris. Ainsi, mon travail présente de nouveaux aspects de la synthèse des polyphosphates chez les eucaryotes et les résultats devraient encourager l'élucidation de mécanismes similaires chez les organismes supérieurs. - Les polyphosphates (iPOP) sont des polymères linéaires de phosphates inorganiques liés par des liaisons phosphoanhydres de haute énergie. Ces molécules sont présentes dans tous les organismes et localisées dans des compartiments cellulaires appelés acidocalcisomes. Elles varient en taille de quelques dizaines à quelques centaines d'unités phosphate. Des fonctions nombreuses et variées ont été attribuées aux iPOP dont un rôle dans les métabolismes de l'énergie et du phosphate, dans la régulation d'activités enzymatiques, la virulence, la pathogénicité, le remodelage osseux et la coagulation sanguine. Il a récemment été montré que les cellules de myélome contiennent une grande quantité de iPOP. Il y donc un intérêt croissant pour les iPOP dans les lignées cellulaires humaines. Cependant, très peu d'informations sur le métabolisme des iPOP chez les eucaryotes sont disponibles. Les acidocalcisomes sont des compartiments acides et denses aux électrons. Ils font partie du groupe des organelles similaires aux lysosomes (LROs pour Lysosome Related Organelles). Le fait que les acidocalcisomes soient conservés dans tous les règnes du vivant montrent l'importance de ces compartiments pour les organismes. Cependant, l'analyse de ces organelles est rendue difficile par l'existence d'un nombre limité d'outils biochimiques permettant leur caractérisation. Les vacuoles de levures possèdent des aspects structuraux et physiologiques très similaires à ceux des acidocalcisomes. Par exemple, ils synthétisent et gardent en réserve les iPOP. Ceci fait des vacuoles de levure un modèle idéal pour l'étude de processus biologiques conservés chez les vacuoles et les acidocalcisomes. De plus, la levure est un organisme de choix pour l'étude de la synthèse des iPOP compte-tenu de l'existence de nombreux outils génétiques et la possibilité d'isoler des vacuoles fonctionnelles. Notre groupe a identifié le complexe VTC (Vacuole transporter Chaperone) comme étant responsable de la synthèse des iPOP et la sous-unité Vtc4p comme celle possédant l'activité catalytique. L'objectif de cette étude était de caractériser le processus de synthèse des iPOP en utilisant des vacuoles isolées et de reconstituer la synthèse des iPOP dans des liposomes. La première étape a consisté en la mise au point d'un dosage permettant la mesure de la quantité de iPOP synthétisés par les organelles isolés en fonction du temps. Cette nouvelle méthode a été comparée aux méthodes décrites précédemment dans la littérature. Ensuite, la caractérisation détaillée du processus a permis d'identifier des composés modulateurs de la réaction à la fois pour des vacuoles intactes et des vacuoles solubilisées. Enfin, des essais de purification du complexe VTC et sa reconstitution dans des liposomes ont été entrepris. De façon parallèle, une étude sur la translocation et le stockage des iPOP dans le lumen des vacuoles a été menée. Il a ainsi été possible de mettre en évidence différents groupes de iPOP : les iPOP localisés à l'intérieur et ceux localisés à l'extérieur des vacuoles isolées. De plus, nous avons observé que le lysat vacuolaire n'est pas détérioré par les étapes de reconstitution dans les liposomes et conserve l'activité de synthèse des iPOP. Les prochaines étapes consisteront en la purification du complexe intact et de la détermination de sa structure par cryo-microscopie électronique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'analyse de l'activité reste le principal garant d'une bonne évaluation de la situation de travail et de l'environnement psychosocial. Elle permet de donner du contenu, de la substance et ainsi d'expliquer les données récoltées par questionnaire. Lors d'études à petite échelle et dans un contexte d'activité spécifique, l'analyse de l'activité devrait toujours accompagner l'utilisation d'autres outils d'évaluation. En effet, on voit ici que les échelles de Karasek ne traduisent pas toujours la réalité des diverses situations de travail, et l'autonomie décisionnelle de Karasek n'est ici pas un bon révélateur des possibilités d'ajustement et de la marge de manoeuvre. Ces échelles ont été initialement conçues pour être utilisées lors d'études épidémiologiques et donc sur de grandes populations où la spécificité de certaines activités influencerait ainsi moins le résultat global. Leur utilisation de façon plus ou moins abusive sur d'autres types de populations doit être questionnée

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Des développements antérieurs, au sein de l'Institut de Géophysique de Lausanne, ont permis de développer des techniques d'acquisition sismique et de réaliser l'interprétation des données sismique 2D et 3D pour étudier la géologie de la région et notamment les différentes séquences sédimentaires du Lac Léman. Pour permettre un interprétation quantitative de la sismique en déterminant des paramètres physiques des sédiments la méthode AVO (Amplitude Versus Offset) a été appliquée. Deux campagnes sismiques lacustres, 2D et 3D, ont été acquises afin de tester la méthode AVO dans le Grand Lac sur les deltas des rivières. La géométrie d'acquisition a été repensée afin de pouvoir enregistrer les données à grands déports. Les flûtes sismiques, mises bout à bout, ont permis d'atteindre des angles d'incidence d'environ 40˚ . Des récepteurs GPS spécialement développés à cet effet, et disposés le long de la flûte, ont permis, après post-traitement des données, de déterminer la position de la flûte avec précision (± 0.5 m). L'étalonnage de nos hydrophones, réalisé dans une chambre anéchoïque, a permis de connaître leur réponse en amplitude en fonction de la fréquence. Une variation maximale de 10 dB a été mis en évidence entre les capteurs des flûtes et le signal de référence. Un traitement sismique dont l'amplitude a été conservée a été appliqué sur les données du lac. L'utilisation de l'algorithme en surface en consistante a permis de corriger les variations d'amplitude des tirs du canon à air. Les sections interceptes et gradients obtenues sur les deltas de l'Aubonne et de la Dranse ont permis de produire des cross-plots. Cette représentation permet de classer les anomalies d'amplitude en fonction du type de sédiments et de leur contenu potentiel en gaz. L'un des attributs qui peut être extrait des données 3D, est l'amplitude de la réflectivité d'une interface sismique. Ceci ajoute une composante quantitative à l'interprétation géologique d'une interface. Le fond d'eau sur le delta de l'Aubonne présente des anomalies en amplitude qui caractérisent les chenaux. L'inversion de l'équation de Zoeppritz par l'algorithme de Levenberg-Marquardt a été programmée afin d'extraire les paramètres physiques des sédiments sur ce delta. Une étude statistique des résultats de l'inversion permet de simuler la variation de l'amplitude en fonction du déport. On a obtenu un modèle dont la première couche est l'eau et dont la seconde est une couche pour laquelle V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s. Abstract A system to record very high resolution (VHR) seismic data on lakes in 2D and 3D was developed at the Institute of Geophysics, University of Lausanne. Several seismic surveys carried out on Lake Geneva helped us to better understand the geology of the area and to identify sedimentary sequences. However, more sophisticated analysis of the data such as the AVO (Amplitude Versus Offset) method provides means of deciphering the detailed structure of the complex Quaternary sedimentary fill of the Lake Geneva trough. To study the physical parameters we applied the AVO method at some selected places of sediments. These areas are the Aubonne and Dranse River deltas where the configurations of the strata are relatively smooth and the discontinuities between them easy to pick. A specific layout was developed to acquire large incidence angle. 2D and 3D seismic data were acquired with streamers, deployed end to end, providing incidence angle up to 40˚ . One or more GPS antennas attached to the streamer enabled us to calculate individual hydrophone positions with an accuracy of 50 cm after post-processing of the navigation data. To ensure that our system provides correct amplitude information, our streamer sensors were calibrated in an anechoic chamber using a loudspeaker as a source. Amplitude variations between the each hydrophone were of the order of 10 dB. An amplitude correction for each hydrophone was computed and applied before processing. Amplitude preserving processing was then carried out. Intercept vs. gradient cross-plots enable us to determine that both geological discontinuities (lacustrine sediments/moraine and moraine/molasse) have well defined trends. A 3D volume collected on the Aubonne river delta was processed in order ro obtain AVO attributes. Quantitative interpretation using amplitude maps were produced and amplitude maps revealed high reflectivity in channels. Inversion of the water bottom of the Zoeppritz equation using the Levenberg-Marquadt algorithm was carried out to estimate V P , V S and ρ of sediments immediately under the lake bottom. Real-data inversion gave, under the water layer, a mud layer with V P = 1461 m∕s, ρ = 1182 kg∕m3 et V S = 383 m∕s.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectif Le présent travail a consisté à identifier et comparer, au moyen d'un questionnaire auto-administré, les conditions ergonomiques, les nuisances environnementales et les facteurs de stress rencontrés par le personnel soignant (n = 35) et le personnel pénitentiaire (n = 240) travaillant dans les mêmes prisons. Quatre ans ont séparé la remise du questionnaire auprès des surveillants et des soignants, ce qui limite la portée des résultats. Malgré cela, la comparaison des données fournies montre des tendances intéressantes. Résultats Sur un plan ergonomique, les soignants rencontrent une plus faible pénibilité que les surveillants. Sur un plan environnemental, les soignants sont gênés par un nombre moins important de nuisances que les surveillants, ces derniers étant exposés à des conditions très diverses de travail (divisions de haute sécurité, ateliers de production, domaines agricoles). Par contre, concernant les facteurs de stress, les soignants éprouvent des tensions dans des proportions presque identiques aux surveillants, suite aux interventions d'urgences, à la surcharge de travail, aux relations avec les détenus et à la mauvaise ambiance au travail. En outre, les soignants et surveillants paraissent souffrir différemment d'éléments d'organisation tels que le sentiment de travailler sous pression, le manque d'écoute et le manque de considération. Enfin les soignants signalent un risque de violence plus élevé ainsi qu'un manque de reconnaissance plus important que les surveillants. Conclusion Les surveillants doivent continuer à faire l'objet d'un suivi attentif des services de santé au travail. En ce qui concerne les soignants, l'accent doit être mis sur l'amélioration de leur organisation interne de travail en approfondissant, entre autres, la question du manque de reconnaissance, le sentiment de travail sous pression, ainsi qu'en poursuivant les efforts sur la formation à la lutte contre la violence. [Auteurs]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette contribution s'intéresse à la convergence qui devrait exister entre la demande populaire en matière de prestations publiques et les décisions budgétaires des autorités afin que le secteur public soit efficace du point de vue allocatif. Elle cherche à appliquer la méthode de l'allocation contingente dans une volonté d'impliquer la population dans la répartition des ressources budgétaires. Schématiquement, il s'agit d'interroger les administré-e-s dans le cadre d'une enquête et de leur demander d'allouer un budget donné entre les différentes catégories de prestations publiques que l'administration doit offrir. Cette méthode est appliquée ici de façon expérimentale en utilisant comme périmètre d'analyse les budgets des collectivités locales suisses. Les tests effectués sur les résultats montrent que les préférences révélées ne le sont pas sur une base aléatoire. Si des différences apparaissent entre les allocations contingentes et la manière dont les ressources sont effectivement réparties entre les prestations communales, ces différences semblent découler d'une divergence de vues réelle et non d'un biais lié à la méthode.