581 resultados para Environnement institutionnel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition aux bioaérosols (endotoxines, bactéries et spores de champignons en suspension dans l'air) et les problèmes de santé qui en découlent sont bien connus dans certains milieux professionnels (station d'épuration des eaux usées, élevages d'animaux, traitements des déchets organiques, travailleurs du bois, récolte et manutention des céréales, agriculture...). Cependant, les études avec investigations des concentrations aéroportées d'endotoxines et de micro-organismes se font très rares dans d'autres milieux professionnels à risque. Cette note d'actualité scientifique présente la synthèse de deux publications visant à quantifier les bioaérosols dans deux milieux professionnels rarement étudiés : les cabinets dentaires et les cultures maraîchères de concombres et tomates. Les dentistes ainsi que leurs assistants sont souvent bien informés sur les risques chimiques, les risques liés aux postures et les risques d'accidents avec exposition au sang. En revanche, le risque infectieux lié à une exposition aux bioaérosols est la plupart du temps méconnu. La flore bactérienne buccale est très riche et l'utilisation d'instruments tels que la fraise, le détartreur à ultrasons et le pistolet air-eau entraîne la dissémination aéroportée d'une grande quantité de bactéries. De plus, la conception des instruments générant un jet d'eau (diamètre des tubulures) favorise la formation de biofilm propice à l'adhérence et à la multiplication de micro-organismes à l'intérieur même des tuyaux. Ces micro-organismes se retrouvent alors en suspension dans l'air lors de l'utilisation de ces pistolets.L'inhalation de grandes quantités de ces micro-organismes pourrait alors engendrer des problèmes respiratoires (hypersensibilisation, asthme). De plus la présence de pathogènes, tels que les légionelles, les pseudomonas et les mycobactéries à croissance rapide, dans l'eau de ces unités dentaires peut aussi entraîner des risques infectieux pour les patients et pour les soignants. La production de tomates et concombres en Europe en 2008, était respectivement de 17 et 2 millions de tonnes dont 850 000 et 140 000 tonnes pour la France. La récolte, le tri et la mise en cageots ou en barquette individuelle de ces légumes génèrent de la poussière riche en matières organiques. Très peu d'études ont investigué l'exposition à ces poussières et aux endotoxines dans les serres de cultures intensives. Notamment, les données concernant les cultures de tomates sont inexistantes bien que ce légume soit un des plus cultivés en Europe. [Auteur]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le géopatrimoine regroupe des objets géologiques lato sensu auxquels certaines valeurs sont attribuées, en fonction de leur intérêt pour la science, de leur rareté, de leurs particularités culturelles ou écologiques, etc. Valoriser le géopatrimoine signifie avant tout faire partager cette approche aux non-spécialistes, en expliquant ce qui fait la valeur de ces objets. Cette valorisation peut s'effectuer, entre autres, sous la forme d'une activité touristique et contribuer ainsi au développement régional. Faire comprendre l'origine, la singularité et la valeur des formes du relief implique le recours à une communication éducative, désignée par le terme de médiation. Les implications de la dimension éducative du processus, comme la prise en compte des connaissances et attentes du public, la création d'un environnement favorable à l'apprentissage ou l'attractivité du contenu, sont souvent négligées. Du point de vue conceptuel, un modèle de la médiation indirecte (c'est-à-dire au moyen de supports médiatiques) a été proposé et appliqué au développement empirique de produits de médiation et à leur évaluation. Ce modèle ne garantit pas la réussite de la communication éducative, mais contribue à créer un cadre favorable au processus. De plus, plusieurs lignes directrices pour le choix du type de média et sa mise en forme ont été définies sur la base d'une compilation de résultats de la psychologie cognitive sur l'usage des médias pour l'apprentissage. Des méthodes qualitatives et quantitatives variées ont été mobilisées: enquêtes par questionnaire ex situ et in situ, auprès des visiteurs de géomorphosites de montagne, réalisation de médias interactifs testés ensuite auprès de divers publics (parcours enregistré, pré- et post-questionnaires) et entretiens collectifs. Les résultats obtenus éclairent divers aspects de la problématique. L'étude du public a montré, par exemple, que le géotourisme possède un réel public parmi les visiteurs des sites de montagnes: trois-quarts d'entre eux expriment de l'intérêt pour des explications sur la géologie et l'évolution du paysage. Cette thèse a exploré ces aspects liés au processus d'apprentissage en se focalisant sur les médias visuels, surtout interactifs. La plupart des médias visuels couramment utilisés en géomorphologie ont été considérés. Le développement de versions interactives de ces médias sous forme d'applications web a fourni un aperçu concret des possibilités des nouvelles technologies. Les utilisateurs apprécient en particulier a richesse du contenu, le haut degré d'interactivité et la variété de ces applications. De tels médias incitent à visiter le site naturel et semblent aussi répondre aux intérêts de publics variés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trace matérielle est une information élémentaire sur une activité qui a lieu dans un environnement physique et social immédiat et qui relève principalement de la sécurité. Leur exploitation doit donc s'étendre au-delà du système judiciaire, vers le renseignement en général et l'étude de phénomènes. Des profils chimiques extraits à partir des saisies de stupéfiants, des montres contrefaites, des courriels non-sollicités, les restes d'incendies sont des exemples de traces qui résultent d'activités répétitives qu'il convient de mieux saisir. La science forensique et la criminologie se rencontrent alors pour étudier des problèmes de sécurité munis de nouveaux jeux d'information. La constitution de banques de données pertinentes est d'ailleurs une préoccupation majeure de la recherche en criminologie. Par des sondages toujours plus larges et des techniques modernes d'acquisition s'appuyant sur les technologies de l'information, la criminologie peut maintenant étendre les analyses comparatives et longitudinales de phénomènes liés à la délinquance des jeunes. Mais la validité et la pertinence de comparaisons doivent être discutées, notamment lorsque les analyses portent sur la violence envers les femmes dans des contextes différents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article présente une étude, commencée en 2007, sur le développement de l'edelweiss dans deux alpages du val Ferret (VS). A moyen terme, cette étude vise à estimer la capacité de résistance à la pâture des moutons de l'espèce et à mieux connaître la dynamique de ses populations dans l'idée d'améliorer sa conservation. L'article présente les deux sites d'études (conditions écologiques, importance des populations d'edelweiss) et s'intéresse principalement à la composition du tapis végétal. Cette première étape est avant tout descriptive mais elle est d'importance primordiale pour pouvoir interpréter les observations de multiplication et de colonisation de l'edelweiss in situ. Des méthodes de l'écologie numérique sont utilisées pour explorer la variabilité de la composition spécifique des parcelles d'étude, subdivisées en groupes homogènes. On cherche ensuite les variables environnementales qui expliquent le mieux la composition floristique des groupes retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au moment où nos sociétés contemporaines s'interrogent avec passion sur le statut de l'animal et sur la responsabilité éthique des êtres humains envers la création et l'environnement - jusqu'à la question des OGM -, cette étude est d'une brûlante actualité. Qu'en est-il de la notion de dignité de la créature, ancrée dans la Constituton fédérale? Est-elle, comme le prétendent certains, une coquille vide, un mot magique et creux, sans signification réelle? Quelle pourrait être sa portée pour les animaux prétendus inférieurs et pour les plantes? Les auteurs s'appuient sur la distinction entre dignité et valeur. Ils pennent leurs distances par rapport aux catégories d'anthropocentrisme, de pathocentrisme et et de biocentrisme, catégories conditionnant la plupart des théories éthiques au sujet de l'animal et de l'environnement. Il en résulte une nouvelle conception de la relation anthropologique en ^tre l'être humain, l'animal et la nature. La perspective de l'anthropo-relationalité sert de fondement à une approche respectueuse des animaux et des plantes, tout en reconnaissant la place et la responsabilité spécifiques de l'être humain et des sociétés démocratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après la révolution religieuse des années 60, une nouvelle religiosité est-elle née ? Cette question est au coeur du livre. Il met, en effet, en scène les jeunes des années 80, les filles et les fils de la génération d'après-guerre, celle de Mai 68. Les parents ont pris leurs distances avec les différentes formes institutionnelles de l'autorité, y compris celle des Églises. Ils avaient été laissés libres de s'initier à une voie « spirituelle » : liberté de conscience et autonomie individuelle, deux valeurs clés attachées à la génération d'après-guerre, avaient orienté leur démarche religieuse. Les années 80 constituent de plus un contexte spécifique. Derrière le rideau de l'abondance, les contours de la précarité se dessinent. L'effondrement du mur de Berlin a entraîné celui des certitudes et des points de repère. L'apparition du sida a mis en cause le mythe dominant d'une jeunesse presque éternelle ouvrant sur une société sans âge et sans conflits de génération. Ces événements ont infléchi les quêtes de sens contemporaines. Fruit de la collaboration de vingt-deux sociologues venant de différents pays de l'Union européenne et de la Suisse, l'ouvrage, plutôt que de mettre côte à côte des observations empruntées aux pays concernés, propose des analyses transversales. Il permet ainsi de se faire une idée du changement religieux qui touche l'Europe dans son ensemble et de dégager quelques enjeux communs suscités par l'incertitude ambiante. Partant de l'analyse de la condition des jeunes dans les années 80, l'ouvrage aborde tour à tour la question de leur identité religieuse, celle de leurs systèmes de croyance, puis s'attarde sur les institutions qui ont contribué à leur socialisation religieuse. L'expérience constitue une caractéristique de la vie religieuse contemporaine, alors que la pluralité de l'offre reflète le changement socioculturel. Un chapitre est ainsi consacré à la présentation de quelques trajectoires typiques illustrant la gestion de l'incertitude dans laquelle est plongée la génération en cause. Enfin est abordée la question posée par une jeunesse qui apparaît aujourd'hui dépourvue d'encadrement institutionnel dans le champ religieux comme dans d'autres domaines : cette situation ne traduit-elle pas la crise de reproduction des institutions elles-mêmes ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el contexto de los regímenes globales del desarrollo y de la conservación, la categoría « autóctono » o « indígena » se vuelve una apuesta política, económica y cultural. En Bolivia, el nuevo marco de la gobernanza ambientalista parece dar la oportunidad a los « autóctonos » de las Tierras Bajas para obtener al fin una « ciudadanía », pero en realidad, ésta sigue siendo étnica y estratégica. Ella se define en oposición al "otro" y queda imbricada en complejos organizacionales que compiten entre si, que estructuran las pertenencias y desnaturalizan los fundamentos de la idea ciudadana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les multiples réformes qui ont touché les administrations publiques ont profondément transformé l'environnement de travail des employés, les projetant dans une ère nouvelle appelée ici "l'après-fonctionnariat". Ils font actuellement face à de nouvelles conditions d'emploi et manières de travailler ayant pour objectif de rendre le service public davantage performant. Avec quels impacts sur leurs identités et leurs motivations au travail ? Voici les résultats d'une recherche réalisée en Suisse.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syrian dry areas have been for several millennia a place of interaction between human populations and the environment. If environmental constraints and heterogeneity condition the human occupation and exploitation of resources, socio-political, economic and historical elements play a fundamental role. Since the late 1980s, Syrian dry areas are viewed as suffering a serious water crisis, due to groundwater overdraft. The Syrian administration and international development agencies believe that groundwater overexploitation is also leading to a decline of agricultural activities and to poverty increase. Action is thus required to address these problems.However, the overexploitation diagnosis needs to be reviewed. The overexploitation discourse appears in the context of Syria's opening to international organizations and to the market economy. It echoes the international discourse of "global water crisis". The diagnosis is based on national indicators recycling old Soviet data that has not been updated. In the post-Soviet era, the Syrian national water policy seems to abandon large surface water irrigation projects in favor of a strategy of water use rationalization and groundwater conservation in crisis regions, especially in the district of Salamieh.This groundwater conservation policy has a number of inconsistencies. It is justified for the administration and also probably for international donors, since it responds to an indisputable environmental emergency. However, efforts to conserve water are anecdotal or even counterproductive. The water conservation policy appears a posteriori as an extension of the national policy of food self-sufficiency. The dominant interpretation of overexploitation, and more generally of the water crisis, prevents any controversary approach of the status of resources and of the agricultural system in general and thus destroys any attempt to discuss alternatives with respect to groundwater management, allocation, and their inclusion in development programs.A revisited diagnosis of the situation needs to take into account spatial and temporal dimensions of the groundwater exploitation and to analyze the co-evolution of hydrogeological and agricultural systems. It should highlight the adjustments adopted to cope with environmental and economic variability, changes of water availability and regulatory measures enforcements. These elements play an important role for water availability and for the spatial, temporal, sectoral allocation of water resource. The groundwater exploitation in the last century has obviously had an impact on the environment, but the changes are not necessarily catastrophic.The current groundwater use in central Syria increases the uncertainty by reducing the ability of aquifers to buffer climatic changes. However, the climatic factor is not the only source of uncertainty. The high volatility of commodity prices, fuel, land and water, depending on the market but also on the will (and capacity) of the Syrian State to preserve social peace is a strong source of uncertainty. The research should consider the whole range of possibilities and propose alternatives that take into consideration the risks they imply for the water users, the political will to support or not the local access to water - thus involving a redefinition of the economic and social objectives - and finally the ability of international organizations to reconsider pre-established diagnoses.