625 resultados para Projets
Resumo:
[Content] 1. Introduction. - 1.1. Mandat et questions d'évaluation. - 1.2. Méthode. - 2. Appréciation de la consommation en milieu festif dans le canton de Vaud par les professionnels. - 2.1 Consommation et profil de consommation. - 2.2. Prises de risque et conséquences. - 2.3 Interventions et besoins perçus. - 3. Revue de différentes interventions existantes en Suisse. - 3.1. Historique et objectifs des projets. - 4. Interventions actuelles dans le canton de Vaud. - 4.1. Interventions structurelles. - 5. Avantages et limites des différents types d'intervention répertoriés dans les cantons. - 5.1. Interventions structurelles. - 5.2 Interventions comportementales. - 5.3 Synthèse. - - 6 Conclusions et recommandations pour une intervention en milieu festif dans le canton de Vaud. - 6.1 Bilan du panel de professionnels. - 6.2 Modalités de l'intervention. - 6.3 Recommandations. - 7. Annexes. - 7.1. Fiches projets. - 7.1.1. REPER (secteur Information et projets). - 7.1.2. Fiesta. - 7.1.3. Pôle Prévention jurassien. - 7.1.4. danno.ch. - 7.1.5. Nuit blanche ?. - 7.1.6. saferparty.ch. - 7.1.7. rave it safe.
Resumo:
Introduction Actuellement, les projets européens concernant l'harmonisation des méthodes de profilage se concentrent principalement sur les drogues de type synthétique telles que les ecstasy et les dérivés de la phényléthylamine [Aalberg L. et al. 2005, Aalberg L. et al. 2005, SMT Project 2001, CHAMP Project 2003]. Néanmoins, d'après le rapport annuel 2005 de l'Agence Européenne des Drogues (EMCDDA), la cocaïne est devenue un élément majeur du paysage européen des stupéfiants. De même, les dernières statistiques de l'Office Fédéral de la Police Suisse montrent que les saisies de cocaïne ont quasiment doublé entre 2003 et 2004 pour atteindre des quantités jamais vues auparavant. Le 7ème programme cadre européen, pour la recherche et le développement technologique, propose d'ailleurs un sujet concernant «la détermination et le pistage des composés utilisés lors de la production de certaines substances ». La cocaïne est donc devenue un thème prioritaire en Europe et l'utilisation des méthodes de profilage est un moyen puissant pour établir des liens entre des saisies. Les méthodes de profilage de la cocaïne sont utilisées par quelques laboratoires mais il y a peu ou quasiment pas d'échange d'informations aussi bien concernant les données obtenues que les méthodes utilisées afin d'améliorer la lutte contre le trafic de stupéfiants. Aucune recherche relative à l'harmonisation des méthodes entre deux laboratoires n'a été réalisée à ce jour. Le projet Interreg IIIA avait pour objectif de fournir du renseignement forensique en matière de stupéfiants, plus précisément dans ce cas à la frontière franco-suisse. Le processus de profilage repose sur deux phases interconnectées. La première est consacrée au développement de la méthode analytique permettant l'extraction d'une signature chimique (alcaloïdes et autres composés d'origine, solvants, produits de coupage) ou physique (conditionnement) du produit illicite. La seconde se focalise sur l'intégration des résultats dans un but d'utilisation par les forces de police. Cette recherche s'est tout d'abord focalisée sur le profilage des alcaloïdes en optimisant et en validant la méthode analytique élaborée à l'IPS sur un même GC-FID [Guéniat O. 2004 et Esseiva P. 2004]. Ensuite, la méthode a été étendue à une comparaison de spécimens analysés sur deux appareils différents. Finalement, afin de tester les résultats obtenus par l'analyse des alcaloïdes, une méthode indépendante, la Statique Headspace couplée à un GC-FID, a été, utilisée pour le profilage des solvants. En effet, de nombreux solvants sont utilisés lors de la production de la cocaïne et il doit donc aussi, a priori, être possible d'établir des liens sur la base de cette analyse. Les informations fournies par ces deux méthodes ainsi que leur complémentarité ont été investiguées.
Resumo:
Fungi are divided in 3 groups in the field of medical mycology. The dermatophytes are filamentous fungi able to grow on keratinized tissues from human or animals. They are the main cause of superficial and cutaneous mycoses of the skin and its appendix (hair and nail). The yeasts, or dimorphic fungi, can be responsible of diverse types of infections (superficial to deep mycoses). The moulds include all Non-dermatophyte Filamentous Fungi (NDF). In medical mycology, the most representative moulds are Aspergillus spp., Fusarium spp. and Mucor spp. Diagnosis of mycosis is currently based on direct mycological examination of biological samples, as well as macroscopic and microscopic identification of the infectious fungus in culture assay. However, culture assays were found to remain sterile in roughly 40% of cases otherwise positive by direct mycological examinations. Additionally, results from culture assays are often difficult to interpret as various NDF are sometimes isolated. This thesis work is composed of three projects focusing on the development of new assays for direct in situ identification of fungi from dermatological samples. Part 1. A Polymerase Chain Reaction - Terminal Restriction Fragment Length Polymorphism assay (PCR-TRFLP) targeting the 28S rDNA was developed to identify dermatophytes and NDF in nails with suspected onychomycosis. This method is faster and more efficient than culture. It further enables the distinction of more than one agent in case of mixed infection. A fast and reliable assay for the identification of dermatophytes and NDF in onychomycosis was found to be highly relevant since onychomycosis with Fusarium spp. or other NDF are weakly responsive or unresponsive to standard onychomycosis treatments with oral terbinafine and itraconazole. Part 2. A nested PCR-sequencing assay targeting the 28S rDNA was developed to identify dermatophyte species in skin and hair samples. This method is especially suitable for tinea capitis where dermatophytes identification is critical for subsequently prescribing the adequate treatment. The challenge presented when performing direct PCR fungi identification in skin and hair differs from that seen in onychomycosis as small amount of material is generally collected, few fungal elements are present in the clinical sample and one dermatophyte among a dozen species must be identified. Part 3. Fusarium spp. is currently isolated from nails with a frequency of 15% of that of dermatophytes in the laboratory of Mycology of the CHUV (2005-2012). The aim of this work was to examine if the intensive use of terbinafine and itraconazole could be a cause of the high incidence of Fusarium nail infections. For that purpose, two different methods, specific PCR and TRFLP, were used to detect both Fusarium spp. and Trichophyton spp. in nails of previously treated or untreated patients. TRFLP assay was found to be less sensitive than classical PCR assays specifically detecting Fusarium spp. or Trichophyton spp. Independently of the detection method used, the prevalence of Fusarium spp. appears not to be higher in patients previously treated by oral standard treatment with terbinafine and azoles which are highly effective to fight Trichophyton spp. in nails. In many cases Fusarium sp. was detected in samples of patients not previously subjected to antifungal therapy. Therefore, these treatments do not appear to favor the establishment of Fusarium spp. after elimination of a dermatophyte in nail infection. - En mycologie médicale, les champignons sont classés en 3 groupes. Les dermatophytes sont des champignons filamenteux capables de se développer dans les tissus kératinisés des hommes et des animaux, ils représentent la principale cause des mycoses superficielles et cutanées de la peau et de ses appendices (ongles et cheveux). Les levures, ou champignons dimorphiques, peuvent être responsables de divers types d'infections (superficielles à profondes). Les moisissures incluent tous les champignons filamenteux non-dermatophytes (NDF), les Aspergillus spp., les Fusarium spp. et les Mucor spp. sont les principales espèces rencontrées. Le diagnostic d'une mycose est basé sur un examen mycologique direct des prélèvements biologiques ainsi que sur l'identification macroscopique et microscopique du champignon infectieux isolé en culture. Cependant, dans environ 40% des cas, l'identification de l'agent pathogène est impossible par cette méthode car la culture reste stérile, bien que l'examen direct soit positif. De plus, la croissance de moisissures et/ou autres contaminants peut rendre l'interprétation de l'examen difficile. Ce travail de thèse est composé de trois projets focalisés sur le développement de nouvelles méthodes d'identification des champignons directement à partir d'échantillons dermatologiques. Projet 1. Une méthode de Réaction en chaîne de polymérase couplée à du polymorphisme de longueur des fragments de restriction terminaux (PCR-TRFLP), en ciblant l'ADN ribosomal 28S, a été développée pour l'identification des dermatophytes et moisissures dans les ongles avec suspicion d'onychomycoses. Cette technique s'est avérée plus rapide et plus efficace que la culture, permettant l'identification de plusieurs champignons en même temps. Posséder une méthode d'identification rapide et fiable des dermatophytes et des NDF dans les onychomycoses a été jugée nécessaire du fait que les Fusarium et d'autres NDF sont peu ou pas sensibles aux traitements oraux standards à la terbinafine et à Γ itraconazole. Projet 2. Une PCR nichée couplée au séquençage d'un fragment de l'ADN ribosomal 28S a été développée afin de différencier les dermatophytes dans la peau et les cheveux. Cette méthode est particulièrement adaptée au cas de tinea capitis, où l'identification du dermatophyte est essentielle afin de prescrire le traitement adéquat. Le problème de l'identification du pathogène fongique dans les cheveux et la peau diffère des onychomycoses car de petites quantités sont prélevées chez les patients, peu d'éléments fongiques sont présents et il faut discriminer un dermatophyte parmi une douzaine d'espèces potentielles. Projet 3. Au laboratoire de Mycologie du CHUV, les Fusarium ont été isolé dans les ongles à une fréquence de 15% pour la période 2005-2012. Le but de ce travail était d'examiner si l'utilisation intensive de terbinafine et d'itraconazole pouvait être une des causes de la forte incidence des infections des ongles par Fusarium. A cet effet, deux méthodes ont été utilisées pour détecter à la fois Fusarium spp. et Trichophyton spp., la PCR spécifique et le TRFLP. Indépendamment de la méthode choisie, il en résulte que la prévalence des Fusarium η'apparaît pas liée à un traitement au préalable des patients avec de la terbinafine ou des azoles, thérapies très efficaces contre les Trichophyton spp. dans les ongles. De plus, il existe de nombreux cas où Fusarium était détecté chez des patients non traités.
Resumo:
Seit den 1990er Jahren werden zunehmend nachhaltige Quartiere realisiert. Dabei besteht häufig eine beachtliche Diskrepanz zwischen den Zielen, die von den beteiligten Akteuren angestrebt werden, deren Umsetzung (Realisierungsphase) und deren Erhalt auf Dauer (Nutzungsphase). Es stellt sich folglich die Frage, auf welche Weise die Projektqualität im Sinne einer nachhaltigen Quartiersentwicklung verbessert werden kann. Diese Projekte sind jedoch enorm komplex aufgrund der großen Interdisziplinarität und Interdependenz ihrer Ziele sowie der vielschichtigen Akteursstrukturen. Sie stellen daher be-sonders hohe Anforderungen an die Projektsteuerung. Das konkrete Ziel dieser Arbeit besteht darin, die Bedeutung einer Prozesssteuerung im Sinne von Urban Governance zur Realisierung und zum Erhalt nachhaltiger Quartiere zu untersuchen. Damit soll einen Beitrag zur Förderung einer nachhalti-gen Stadtentwicklung geleistet werden. Die Arbeit stützt sich auf ein umfassendes theoretisches Fundament zum Thema Governance, wobei die relevanten Elemente für den Kontext nachhaltiger Quartiere herausgearbeitet werden. Die Hypothesen prüfen die Bedeutung der Schlüsselcharakteristika von Urban Governance (Kooperation, Partizipation, Verhandlungen) für die Projektqualität während der Realisierungs- und Nutzungsphase. Eine erste empirische Untersuchung wurde an zwanzig europäischen nachhaltigen Modellquartieren vorgenommen. Stärken und Schwächen aus der Perspektive der Nachhaltigkeit werden analysiert, deren Ursachen identifiziert und Handlungsoptio-nen aufgezeigt. Die Erkenntnisse zeigen die Notwendigkeit einer Verbesserung der Projektsteuerung während der Realisierungs- und der Nutzungsphase. Auf der Grundlage dieser Erkenntnisse wird ein umfassender Ansatz zur empirischen Untersuchung von Urban Governance im Kontext nachhaltiger Quartiere entwickelt. Dieser beruht auf dem akteurzentrierten Institutionalismus und den Merkmalen der Urban Governance. Anhand dieses Ansatzes wird mithilfe von Experteninterviews der Realisierungsprozess des nach-haltigen Quartiers Kronsberg (Hannover) analysiert. Betrachtet werden dabei die beteiligten Akteure und ihre Handlungso-rientierungen, die verwendeten Schlüsselinstrumente sowie aufgetretene Divergenzen zwischen Akteuren und deren Auswirkungen auf die Projekt- und Prozessqualität. Eine Vertiefung relevanter Themenfelder wird anhand der Fallstudie Neu-Oerlikon (Zürich) vorgenommen. Diese empirische Arbeit zeigt, dass eine Prozesssteuerung im Sinne von Urban Governance im Vergleich zu einer klassis-chen hierarchischen Steuerung eine notwendige aber nicht hinreichende Bedingung zur Verbesserung der Projektqualität nachhaltiger Quartiere darstellt. An konkreten Beispielen wird herausgearbeitet, dass der Mehrwert einer solchen Steuerung nur unter bestimmten Voraussetzungen erzielt werden kann: In manchen Situationen ist die Steuerungsform Kooperation und die Interaktionsform Verhandlung in ihrer Wirksamkeit zur Sicherung der Projektqualität begrenzt und hierarchische Interventionen sind notwendig. Nicht ein bestimmtes Steuerungsmodell per se ist geeignet, sondern es kommt auf den Ein-zelfall an: auf die Akteursstruktur, die individuellen und institutionellen Handlungsorientierungen der Akteure und deren Ver-haltensweisen, die Rahmenbedingungen und die Ausgestaltung des Urban Governance-Prozesses. Wenn die Spielregeln dieses Prozesses von den Akteuren nicht wirklich angenommen und gelebt werden, dominieren individuelle und institutio-nelle Akteursinteressen zu Lasten der Projektqualität. Ferner zeigen die Untersuchungen, dass die Partizipation der zukünftigen Quartiersnutzer in der Praxis häufig unzureichend ist. Dies führt zu Einbußen in der Projektqualität. Entscheidend ist auf jeden Fall, dass mindestens ein Akteur, in der Regel die öffentliche Hand, präsent ist, der die Definition anspruchsvoller Nachhaltigkeitsstandards, deren Umsetzung und deren Erhalt sichert sowie die notwendigen Rahmenbedingungen dafür schafft. Diese Arbeit belegt darüber hinaus, dass der Erhalt der Projektqualität während der Nutzungsphase (Faktor Zeit) bisher un-zureichend beachtet und in die Projektplanung einbezogen wird. Gerade dieser Aspekt bestimmt aber, ob das Quartier auch auf Dauer dem Nachhaltigkeitsanspruch gerecht werden kann! Tatsächlich handelt es sich um einen fortlaufenden Prozess, der nicht mit der Einweihung des Quartiers abgeschlossen ist. Vor diesem Hintergrund werden relevante Handlungsfelder beschrieben und die Notwendigkeit der langfristigen Fortsetzung einer Steuerung im Sinne von Urban Governance bzw. der Herausbildung einer Urban Governance-Kultur aufgezeigt. Aus den empirischen Erhebungen werden Erfolgs- und Risikofaktoren für Urban Governance-Prozesse während der Realisierungs- und der Nutzungsphase abgeleitet. Ferner werden bisher vernachlässigte Handlungsfelder (langfristiges Umwelt-management, ökologische Finanzierungsformen, urbane Landwirtschaft, Umweltkommunikation, etc.) eruiert. Die Berücksichtigung dieser Erkenntnisse ist unerlässlich für eine Verbesserung der Projektqualität nachhaltiger Quartiere. ---------------------------------------------- Gouvernance urbaine et quartiers durables: Entre intensions et mise en oeuvre --- Résumé --- Depuis les années 90, la thématique des quartiers durables a gagné en importance, même si leur développement s'est avéré difficile. Le décalage entre les objectifs, leur mise en oeuvre et le projet tel qu'il est vécu par ses habitants est souvent important et nécessite d'être réduit. Un quartier durable est par nature un projet complexe, aux objectifs ambitieux situé à la croisée de multiples champs disciplinaires, mobilisant de nombreux acteurs aux intérêts divergents. De plus, chaque projet, du fait des ses spécificités, requiert un pilotage adapté. L'objectif principal de la recherche vise à analyser la nature du pilotage du processus de conception, de réalisation et d'exploitation des quartiers durables. Ses résultats ont pour ambition de contribuer à optimiser et promouvoir le développement urbain durable. Le fondement théorique de la recherche se base sur le concept de gouvernance urbaine, adapté au contexte particulier de la gouvernance des quartiers durables. La gouvernance urbaine, au sens où nous l'entendons, est un mode de pilotage basé sur la coopération entre les acteurs publics et privés. Les hypothèses centrales du travail testent la portée et les limites des caractéristiques-clefs de la gouvernance urbaine (coopération, participation, négociation), ainsi que l'importance de la notion de pérennité pour la qualité du projet. Dans un premier temps, nous avons analysé vingt quartiers durables modèles européens et identifié leurs atouts et leurs faiblesses en termes de durabilité, ainsi que leurs divers modes de pilotage. Les enseignements tirés de ces exemples révèlent la nécessité d'améliorer le pilotage des projets. Dans un deuxième temps, nous avons élaboré une grille d'analyse fine fondée sur l'approche institutionnelle des acteurs et les caractéristiques-clefs de la gouvernance urbaine. En nous appuyant sur cette grille, nous avons analysé le processus de conception et de réalisation du quartier durable de « Kronsberg » (Hanovre) à l'aide des éléments suivants : les acteurs (avec leurs intérêts et objectifs propres), les instruments d'aménagement du territoire, les modes de pilotage, les zones de divergence et de convergence entre les acteurs, ainsi que leurs impacts sur le processus et le projet. Dans un troisième temps, les hypothèses centrales ont été testées sur le quartier de « Neu-Oerlikon » (Zurich) afin d'approfondir et d'élargir les enseignements tirés de celui de « Kronsberg ». Les résultats des analyses mettent en évidence le fait qu'un pilotage de projet selon le modèle de la gouvernance urbaine est certes une condition nécessaire mais non suffisante pour améliorer la qualité du projet. De plus, la valeur ajoutée de la gouvernance urbaine n'est valable qu'à certaines conditions. En effet, la coopération et la négociation peuvent même, dans certaines situations, réduire la qualité du projet ! Le principal enseignement de la recherche révèle qu'il n'y a pas de mode de pilotage idéal, mais que la qualité d'un projet dépend d'une multitude de facteurs, tels que les constellations d'acteurs, leurs intérêts personnels et institutionnels, les conditions cadres et les « règles du jeu » de la gouvernance urbaine. Si les « règles du jeu » en particulier ne sont pas réellement appropriées par l'ensemble des acteurs, les intérêts et les comportements personnels ou institutionnels prédominent au détriment de la qualité du projet. De même, si la participation des futurs usagers à l'élaboration du projet de quartier durable n'est pas assurée, tant la qualité du projet que sa pérennité en pâtissent. Nous avons également constaté que la présence d'un acteur (en règle générale les autorités publiques) qui veille à la définition d'objectifs ambitieux en matière de développement durable et à leur application constitue un apport essentiel à la qualité du projet. En outre, la recherche met en évidence les carences dans le suivi et le maintien à long terme des qualités de durabilité de la phase d'exploitation des projets de quartiers durables analysés. Dans la phase d'exploitation, le degré de coopération diminue généralement et les modes de fonctionnement et de pilotage sectoriels se mettent en place au détriment de la qualité du projet. Cela confirme la nécessité de poursuivre le processus de pilotage selon le modèle de la gouvernance urbaine au-delà de la phase de réalisation des projets. La recherche précise les enjeux des champs d'action de la phase d'exploitation (domaine encore peu étudié) et démontre la pertinence du mode de pilotage préconisé. Enfin, les analyses permettent d'identifier des facteurs de réussite et de risque susceptibles d'influencer les systèmes de gouvernance urbaine, ainsi que les enjeux des domaines de la durabilité encore négligés (agriculture urbaine, gestion environnementale dans la durée, comportement des usagers, financement équitable, etc.). La prise en compte de ces enseignements est essentielle à l'amélioration de la gestion de futurs projets de quartiers durables. ---------------------------------------------- Urban Governance and Sustainable Neighbourhoods: A Contribution to a Lasting Sustainable Development --- Abstract --- Since the 1990s, sustainable neighbourhoods have become an increasingly important topic. However, their development has proven to be difficult. There is an often considerable gap, which must be reduced, between the initial goals, the way they are implemented and how the project is finally inhabited. A sustainable neighbourhood is inherently a complex project, with ambitious goals that lie at the intersection of multiple disciplines, involving numerous stakeholders with diverging interests. Moreover, each project, due to its specific characteristics, requires an adapted steering. The main goal of this research is to analyse the nature of the steering process during the planning, realisation and use of sustainable neighbourhoods. The results aim to contribute to the promotion of sustainable urban development. The theoretical foundation of this research is based on the concept of urban governance, adapted to the particular context of sustainable neighbourhoods. Urban governance is understood in this work, as a mode of project steering based on the cooperation between public and private stakeholders. The central hypotheses of this work test the importance and the limits of the key characteristics of urban governance (cooperation, participation, negotiation) as well as the importance of continuity for the project quality. To begin with, we surveyed and analysed twenty exemplary European sustainable neighbourhoods and identified their strengths and weaknesses in terms of sustainability, as well as their diverse steering modes. The lessons learned from these examples reveal the need to improve the projects' steering. Secondly we elaborated a detailed framework for analysis founded on stakeholder-centred institutionalism and the key characteristics of urban governance. By systematically applying this framework, we analysed the planning and implementation process of the sustainable neighbourhood "Kronsberg" (Hannover). Our focus was on the following dimensions: the stakeholders (with their particular interests and goals), the instruments of spatial planning, the steering modes, the points of divergence and convergence amongst the stakeholders, as well as their impacts on the process and on the project. The final step was to test the core hypotheses on the neighbourhood "Neu-Oerlikon" (Zürich) in order to broaden the lessons learned from "Kronsberg". The results of the analysis highlight the fact that an urban governance type project steering is certainly a necessary but insufficient condition to improve the project quality. Moreover, the added value of urban governance is only valid under certain conditions. In fact, cooperation and negotiation can even in certain situations reduce the project's quality! The main lesson of this research is that there is not an ideal steering mode, but rather that the quality of the project depends on numerous factors, such as the stakeholder constellation, their individual and institutional interests, the general conditions and the "rules of the game" of urban governance. If these "rules of the game" are not really appropriated by all stakeholders, individual and institutional interests and behaviours predominate at the expense of the project's quality. Likewise, if the future users' participation in the project development is insufficient, both the project's quality and its continuity suffer. We have also observed that the presence of a stakeholder (in general the public authorities) who ensures the definition of ambitious goals in terms of sustainable development and their implementation is crucial for the project's quality. Furthermore, this research highlights the deficiencies in the follow-up and long-term preservation of the sustainability qualities in the neighbourhood projects which we have analysed. In the use phase, the degree of cooperation generally diminishes. Attitudes and project management become more sectorial at the expense of the project's quality. This confirms the need to continue the steering process according to the principles of urban governance beyond the project's implementation phase. This research specifies the challenges that affect the use phase (a still neglected area) and shows the relevance of the recommended steering mode. Finally, the analyses also identify the success and risk factors that may influence urban-governance systems, as well as the challenges of still neglected fields of sustainability (urban agriculture, long-term environmental management, user behaviour, fair funding, etc.). Taking into account these outcomes is essential to improve the management of future sustainable-neighbourhood projects.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.
Resumo:
Astract: The aim of this thesis was to investigate how the presence of multiple queens (polygyny) affects social organization in colonies of the ant Formica exsecta. This is important because polygyny results in reduced relatedness among colony members and therefore reflects a potential paradox for altruistic cooperation being explained by inclusive fitness theory. The reason for this is that workers in polygynous colonies rear no longer only their siblings (high inclusive fitness gain) but also more distantly ox even unrelated brood (low or no inclusive fitness gain). All research projects conducted in this thesis are novel and significant contributions to the understanding of the social evolution of insect societies. We used a mixture of experimental and observational methodologies in laboratory and field colonies of F. exsecta to examine four important aspects of social life that are impacted by polygyny. First, we investigated the influence of queen number on colony sex allocation and found that the number of queens present in a colony significantly affects colony sex ratio investment. The data were consistent with the queen-replenishment hypothesis, which is based on the observation that newly mated queens are often recruited back to their parental nest. According to this theory, colonies containing many queens should only produce males due to local resource competition (i.e. related queens compete for common resources), whereas colonies hosting few queens benefit most from producing new queens to ensure colony survival. Second, we examined how reproduction is partitioned among nestmate queens. We detected a novel pattern of reproductive partitioning whereby a high proportion of queens were completely specialized in the production of only a subset of offspring classes produced within a colony, which might translate into great differences in reproductive success between queens. Third, we could demonstrate that F. exsecta workers indiscriminately reared highly related and unrelated brood although such nepotistic behaviour (preferential rearing of relatives) would be predicted by inclusive fitness theory. The absence of nepotism is probably best explained by its negative effects on overall colony efficiency. Finally, we conducted a detailed population genetic analysis, which revealed that the genetic population structure is different for queens and workers. Our data were best explained with queens forming family-based groups (multicolonial population structure), whereas workers from several nests seemed to be grouped into larger unites (unicolonial population structure) with workers moving freely between neighbouring nests. Altogether, the presented work significantly increased our understanding of the complex organization of polygynous social insect colonies and shows how an important life history trait such as queen number affects social organization at various levels. Résumé: Le but de cette thèse était d'étudier comment la présence de plusieurs reines par colonie (polygynie) influence la vie sociale chez la fourmi Formica exsecta. Ce sujet est important parce que la polygynie chez les insectes sociaux présente un passible paradoxe au niveau de la théorie du "fitness inclusive". Ce paradoxe est basé sur le fait que les ouvrières n'élèvent plus uniquement leurs frères et soeurs (gain de "fitness inclusive" maximale), mais également des individus moins ou pas du tout apparentés (gain de "fitness inclusive" réduit ou absent). Tous les projets de recherche présentés au cours de cette thèse apportent une meilleure compréhension et connaissance au niveau de l'organisation des colonies chez les insectes sociaux. Nous avons employé des méthodes d'observation et de laboratoire afin de mettre en évidence des aspects importants de la vie sociale chez les fourmis influencés par la polygynie. Quatre aspects ont été caractérisés : (1) l'influence du nombre de reines sur le sexe ratio produit par la colonie. Nous avons démontré que les colonies contenant beaucoup de reines produisaient rarement des reines tandis que les colonies contenant peu de reines souvent investissaient beaucoup de ressources dans la production des reines. Ces résultats sont en accord avec la "queen-replenishment hypothesis" qui est basé sur l'observation que les nouvelles reines sont recrutées dans la colonie où elles étaient nées. Cette hypothèse postule que la production des reines est défavorable dans les colonies contenant beaucoup de reines, parce que ces reines apparentées, rentrent en compétition pour des ressources communes. Au contraire, la production des reines est favorable dans des colonies contenant peu de reines afin d'assurer la survie de la colonie ; (2) comment les reines dans une colonie répartissent leur reproduction. Nous avons mis en évidence un nouveau pattern de cette répartition où une grande proportion de reines est complètement spécialisée dans la production d'un seul type de couvain ce qui probablement aboutit à des différences significatives entre reines dans le succès reproducteur ; (3) la capacité des ouvrières à discriminer un couvain de soeur d'un couvain non apparenté. Les résultats ont montré que les ouvrières ne font pas de discrimination entre le couvain de soeur et le couvain non apparenté ce qui n'est pas en accord avec la théorie de la "fitness inclusive". Cette absence de discrimination est probablement due à des effets négatifs comme par exemple la diminution de la production du couvain; (4) la structure génétique d'une population de F. exsecta. Nous avons mis en évidence que la structure génétique entre des groupes de reines est significativement différente de la structure génétique entre des groupes d'ouvrières. Les données suggèrent que les reines forment des groupes basés sur une structure familiale tandis que les ouvrières sont groupées dans des unités plus grandes.
Resumo:
Le présent travail rend compte de la double articulation d'analyse pensée par Antoine Berman dans Pour une critique des traductions: John Donne (Gallimard, 1994). La méthode bermanienne s'attache tant à une histoire, événementielle et individuelle, des traductions qu'à une analyse des textes à la lumière de leurs entours (paratextes, projets de traduction, etc.). Dans une première partie, nous tenterons de décrire et de comprendre à l'aide d'un panorama historique l'importation de la poésie de Rilke en traduction française, des premières versions du début du XXe siècle aux dernières traductions des Élégies de Duino (2008, 2010). Reprenant la formule de Berman, nous « irons au traducteur », à sa façon de traduire et à la traduction qu'il livre. Nous nous pencherons ainsi sur l'identité de ces traducteurs (premiers ou bien nouveaux), sur leur statut socioculturel ainsi que sur les circonstances dans lesquelles ils furent amenés à traduire et virent leur travail publié. Il s'agira d'établir de façon synthétique ce que Berman, sous l'influence de H. R. Jauss, dénomme l' « horizon » d'une traduction qui, à une date donnée, prend en compte une pluralité de critères allant de traits propres au traducteur aux codes poétiques en vigueur dans le vaste champ des Lettres et la société. Nous replacerons ainsi la traduction dans le plus large contexte du transfert culturel et de l'importation et examinerons les traducteurs en présence : les universitaires, les poètes, les traducteurs à plein temps et, dans une moindre mesure, les philosophes. De ce panorama historique émergera l'idée d'une concurrence entre les multiples traducteurs de la poésie de Rilke, plus spécialement entre universitaires et poètes. Dans une seconde partie, reflet de l'autre facette de la pensée bermanienne, nous procèderons à la comparaison et à l'évaluation critique de plusieurs versions françaises de la première Élégie de Duino - opus poétique rilkéen le plus retraduit en français. Notre corpus se limitera à cette première Élégie et à une dizaine de versions françaises que nous faisons dialoguer ou s'opposer. Partant de premières considérations sur l'enveloppe prosodique et typographique du poème, qui nous permettent de saisir la diversité des entreprises et de cerner tant des lignes de force communes que la singularité d'expérimentations plus marginales, nous « confronterons » ensemble les quatre premières versions françaises de la première Élégie, accomplies quasi simultanément dans les années 1930 par des traducteurs d'horizons variés (un germaniste, J.F. Angelloz, une artiste-peintre, L. Albert-Lasard, un traducteur de métier, M. Betz, et un poète, A. Guerne). Il s'agira de saisir l'apport de chacune d'entre elles, ainsi que le type de lien qui les unit (ou les oppose). L'étude de la quatrième version, celle d'Armel Guerne, nous mènera presque naturellement vers la question de la perception de l'écart poétique et du caractère extra-ordinaire de l'original. A la lumière de cette problématique cardinale en poésie, nous procèderons à la comparaison de versions issues des cinquante dernières années et, en considérant plusieurs éléments de sens, nous tenterons de voir comment chaque traducteur, qui est aussi et avant tout un lecteur, a perçu et restitué dans son texte français la matière poétique propre de l'original. Au terme de ce parcours contrastif parmi différentes versions de la première Élégie, nous confronterons les résultats de notre analyse textuelle et le constat de concurrence qui se dégageait de la première partie. Il s'agira de voir alors si la pratique traductive, telle qu'elle se manifeste concrètement au niveau du texte, reflète un antagonisme particulier entre Poésie et Université, ou s'il convient au contraire de relativiser, voire démystifier cette dichotomie.
Resumo:
Les femmes concernées par cette recherche sont des femmes bosniaques, requérantes d'asile en Suisse, suivies au sein de l'association « Appartenances ». Elles ont quitté leur pays à la suite de la prise de la ville de Srebrenica, en juillet 1995. Lors de cet exode, elles ont été séparées de leurs maris, qui sont aujourd'hui encore portés disparus. Ces femmes partagent une expérience douloureuse qui transparaît derrière un certain nombre de symptômes physiques et psychiques. Nous avons été frappés par la répétition de pertes importantes, sans que les conditions permettant un travail de deuil soient réunies. Aucune signification ne peut être attribuée aux disparitions et aux décès, masqués par le silence politique et par l'impossibilité d'accomplir un rituel. Le deuil peut ainsi se compliquer jusqu'à devenir un deuil impossible, dont le prototype pourrait être le « deuil gelé » lors d'une disparition. D'autre part, le stress et l'attaque de l'identité occasionnés par les traumatismes et l'exil ont coupé ces femmes de leurs ressources personnelles et culturelles. La perte d'une image entière de soi est prolongée par le statut précaire de requérant d'asile et par la perte des espoirs mis dans le pays d'accueil. Devant la complexité de cette problématique, nous nous sommes demandés sur quel aspect axer la prise en charge thérapeutique. Nous avons décidé de travailler sur le vécu et les deuils actuels de ces patientes (stress post-traumatique et statut précaire en Suisse). Le concept-clé qui a étayé cette recherche s'inspire de Pollock (7): « le processus de deuil devient très significatif, dans le sens qu 'il est apparemment une des formes les plus universelles de l'adaptation et de la croissance à travers la structuration, disponible pour l'homme. » Dès lors, nous avons fait l'hypothèse que si le deuil est une forme universelle d'adaptation, l'élaboration d'un travail de deuil ou d'un processus d'adaptation quel qu'il soit, pourra servir d'apprentissage pour l'élaboration d'autres deuils. Concrètement, en travaillant sur le rétablissement de leur identité, les femmes pourront retrouver un accès à leurs ressources personnelles et culturelles, tandis que travailler sur les espoirs et déceptions face au statut en Suisse permettra de développer des moyens permettant plus de contrôle sur l'environnement. Leur autonomie rétablie, elles pourront consacrer leurs énergies à attribuer une signification à leur vécu et faire face aux autres deuils paralysant leur guérison. Nous avons assisté aux entretiens thérapeutiques, en récoltant des témoignages sur la base d'un canevas d'entretien semi-structuré, puis nous avons transposé les éléments sur une grille d'analyse regroupant les informations en items. L'analyse de ces entretiens nous a permis de préciser notre hypothèse et de développer des pistes de réflexion pour l'accompagnement thérapeutique de personnes vivant une disparition. A l'issue de ce travail, nous pouvons tirer des parallèles entre les processus d'élaboration des divers deuils. Les femmes sont entrées peu à peu dans le souvenir de la personne aimée et non plus dans le souvenir des événements traumatiques qui ont marqué sa disparition. S'appuyant alors sur la « mémoire sereine » de Kristeva (1) une recherche de signification a pu être entreprise, rejoignant ce que Métraux et Fleuiy (43) définissent comme la santé : « ... se voir créateur du sens qu'on veut donner à sa propre existence, à ses actes et à ses projets. »
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
Année très difficile : les déceptions s'enchaînent, les projets n'aboutissent pas, son fils Pierre a contracté des dettes auprès de la maison Heugel et Barbier lui-même, endetté jusqu'au cou, implore l'aide d'Heugel qui lui fournit une grosse avance. - 8 juin 1892. Lui demande "trois mois de plus, c'est-à-dire 300 francs". Evoque les répétitions de "Sylvia" et les performances de Rosita Mauri. - 10 septembre 1892. "Je ne m'étendrai pas sur mes malheurs. Mon année (...) se termine par un joli déficit. Si mes amis ne me ravitaillent pas, je ne sais trop à quel saint je vais me vouer.". - 12 septembre 1892. Le rappelle à sa bonne promesse qui consiste à verser 50 francs à son fils chaque mois pendant un an.. - 12 octobre 1892. Lui demande de rectifier une note inexacte publiée par quelques journaux au sujet de "L'Espionne" de Théodore Dubois
Resumo:
L'étude comparative de deux traductions de « Cendrillon ou la petite pantoufle de verre » de Charles Perrault montre comment le conte est réorienté vers la jeunesse en Angleterre à partir de projets très différents. « Cinderilla: or, The Little Glass Slipper », publié par Robert Samber dans Histories, or Tales of Past Times. With Morals en 1729, est considéré comme la première traduction du conte en langue anglaise. Plus près de nous, sa retraduction par l'écrivain britannique Angela Carter, « Cinderella: or, The Little Glass Slipper », parue dans The Fairy Tales of Charles Perrault en 1977, donne une nouvelle actualité au conte de Perrault. La première traduction propose un quasi calque du conte qui illustre les conditions matérielles et l'interdiscours des traducteurs de Grub Street, au début du XVIIIe siècle, tandis que la deuxième adapte le conte pour les enfants dans une perspective féministe au XXe siècle. La traduction constitue en outre pour Carter la première étape d'une récriture intitulée « Ashputtle or The Mother's Ghost» (1987) qui témoigne de la continuité entre l'activité de traduction et la création littéraire. Mon analyse s'attache surtout à dégager les enjeux de la (re)traduction de Carter, qui se démarque délibérément de Samber pour renouveler le sens du conte de Perrault et de sa morale.