999 resultados para méthodes systématiques
Resumo:
Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.
Resumo:
Résumé -Caractéristiques architecturales des génomes bactériens et leurs applications Les bactéries possèdent généralement un seul chromosome circulaire. A chaque génération, ce chromosome est répliqué bidirectionnellement, par deux complexes enzymatiques de réplication se déplaçant en sens opposé depuis l'origine de réplication jusqu'au terminus, situé à l'opposé. Ce mode de réplication régit l'architecture du chromosome -l'orientation des gènes par rapport à la réplication, notamment - et est en grande partie à l'origine des pressions qui provoquent la variation de la composition en nucléotides du génome, hors des contraintes liées à la structure et à la fonction des protéines codées sur le chromosome. Le but de cette thèse est de contribuer à quantifier les effets de la réplication sur l'architecture chromosomique, en s'intéressant notamment aux gènes des ARN ribosomiques, cruciaux pour la bactérie. D'un autre côté, cette architecture est spécifique à l'espèce et donne ainsi une «identité génomique » aux gènes. Il est démontré ici qu'il est possible d'utiliser des marqueurs «naïfs » de cette identité pour détecter, notamment dans le génome du staphylocoque doré, des îlots de pathogénicité, qui concentrent un grand nombre de facteurs de virulence de la bactérie. Ces îlots de pathogénicité sont mobiles, et peuvent passer d'une bactérie à une autre, mais conservent durant un certain temps l'identité génomique de leur hôte précédent, ce qui permet de les reconnaître dans leur nouvel hôte. Ces méthodes simples, rapides et fiables seront de la plus haute importance lorsque le séquençage des génomes entiers sera rapide et disponible à très faible coût. Il sera alors possible d'analyser instantanément les déterminants pathogéniques et de résistance aux antibiotiques des agents pathogènes. Summary The bacterial genome is a highly organized structure, which may be referred to as the genome architecture, and is mainly directed by DNA replication. This thesis provides significant insights in the comprehension of the forces that shape bacterial chromosomes, different in each genome and contributing to confer them an identity. First, it shows the importance of the replication in directing the orientation of prokaryotic ribosomal RNAs, and how it shapes their nucleotide composition in a tax on-specific manner. Second, it highlights the pressure acting on the orientation of the genes in general, a majority of which are transcribed in the same direction as replication. Consequently, apparent infra-arm genome rearrangements, involving an exchange of the leading/lagging strands and shown to reduce growth rate, are very likely artifacts due to an incorrect contig assembly. Third, it shows that this genomic identity can be used to detect foreign parts in genomes, by establishing this identity for a given host and identifying the regions that deviate from it. This property is notably illustrated with Staphylococcus aureus: known pathogenicity islands and phages, and putative ancient pathogenicity islands concentrating many known pathogenicity-related genes are highlighted; the analysis also detects, incidentally, proteins responsible for the adhesion of S. aureus to the hosts' cells. In conclusion, the study of nucleotide composition of bacterial genomes provides the opportunity to better understand the genome-level pressures that shape DNA sequences, and to identify genes and regions potentially related to pathogenicity with fast, simple and reliable methods. This will be of crucial importance when whole-genome sequencing will be a rapid, inexpensive and routine tool.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
(Résumé de l'ouvrage) L'histoire des religions autant dans ses procédés que dans ses concepts est fondée sur la comparaison. Tels le mythe, le sacrifice, l'initiation ou la purification, ces concepts comparatifs ont fini par être neutralisés dans une ontologie à prétention universelle. Des religions on en est revenu à la religion, pour le plus grand profit des théologiens chrétiens, protestants et catholiques, qui y ont trouvé une nouvelle légitimité académique. Raison supplémentaire pour revenir sur les démarches comparatives et pour en critiquer les effets totalisants : la comparaison s'impose comme méthode à condition d'être contrastive et différentielle. Elle induit un regard relativisant et décentré ; ce regard oblique d'une part rend justice aux spécificités des manifestations et pratiques religieuses décrites dans leur diversité ; d'autre part il est la condition même, en sciences humaines en général, d'une position critique, antidote indispensable aux replis disciplinaires et institutionnels de nos contemporains. Les contributions réunies ici à la suite d'une journée d'échange passée à comparer les démarches comparatives en histoire des religions entraînent lectrices et lecteurs des rites du polythéisme grec aux pratiques contemporaines du yoga, en passant par différentes prétentions universalisantes du monothéisme chrétien, par les pratiques de l'hospitalité en régime rabbinique et en hindouisme brahmanique, mais aussi par la question du salut individuel en philosophie néoplatonicien, ne ou en théologie augustinienne, par les gestes de la prière dans les religions amérindiennes et dans la mystique chrétienne ou par les prophétismes chrétien et musulman ; ceci par le biais de méthodes comparatives se fondant sur une démarche historique, structurale, discursive ou cognitive.
Resumo:
Summary Prevalence of type 2 diabetes is increasing worldwide at alarming rates, probably secondarily to that of obesity. As type 2 diabetes is characterized by blood hyperglycemia, controlling glucose entry into tissues from the bloodstream is key to maintain glycemia within acceptable ranges. In this context, several glucose transporter isoforms have been cloned recently and some of them have appeared to play important regulatory roles. Better characterizing two of them (GLUT8 and GLUT9) was the purpose of my work. The first part of my work was focused on GLUT8, which is mainly expressed in the brain and is able to transport glucose with high affinity. GLUT8 is retained intracellularly at basal state depending on an N-terminal dileucine motif, thus implying that cell surface expression may be induced by extracellular triggers. In this regard, I was interested in better defining GLUT8 subcellular localization at basal state and in finding signals promoting its translocation, using an adenoviral vector expressing a myc epitope-tagged version of the transporter, thus allowing expression and detection of cell-surface GLUT8 in primary hippocampal neurons and PC 12 cells. This tool enabled me to found out that GLUT8 resides in a unique compartment different from lysosomes, endoplasmic reticulum, endosomes and the Golgi. In addition, absence of GLUT8 translocation following pharmacological activation of several signalling pathways suggests that GLUT8 does not ever translocate to the cell surface, but would rather fulfill its role in its unique intracellular compartment. The second part of my work was focused on GLUT9, which -contrarily to GLUT8 - is unable to transport glucose, but retains the ability to bind glucose-derived cross-linker molecules, thereby suggesting that it may be a glucose sensor rather than a true glucose transporter. The aim of the project was thus to define if GLUT9 triggers intracellular signals when activated. Therefore, adenoviral vectors expressing GLUTS were used to infect both ßpancreatic and liver-derived cell lines, as GLUTS is endogenously expressed in the liver. Comparison of gene expression between cells infected with the GLUTS-expressing adenovirus and cells infected with a GFP-expressing control adenovirus ended up in the identification of the transcription factor HNF4α as being upregulated in aGLUT9-dependent manner. Résumé La prévalence du diabète de type 2 augmente de façon alarmante dans le monde entier, probablement secondairement à celle de l'obésité. Le diabète de type 2 étant caractérisé par une glycémie sanguine élevée, l'entrée du glucose dans les tissus depuis la circulation sanguine constitue un point de contrôle important pour maintenir la glycémie à des valeurs acceptables. Dans ce contexte, plusieurs isoformes de transporteurs au glucose ont été clonées récemment et certaines d'entre elles sont apparues comme jouant d'importants rôles régulateurs. Mieux caractériser deux d'entre elles (GLUT8 et GLUT9) était le but de mon travail. La première partie de mon travail a été centrée sur GLUT8, qui est exprimé principalement dans le cerveau et qui peut transporter le glucose avec une haute affinité. GLUT8 est retenu intracellulairement à l'état basal de façon dépendante d'un motif dileucine N-terminal, ce qui implique que son expression à la surface cellulaire pourrait être induite par des stimuli extracellulaires. Dans cette optique, je me suis intéressé à mieux définir la localisation subcellulaire de GLUT8 à l'état basal et à trouver des signaux activant sa translocation, en utilisant comme outil un vecteur adénoviral exprimant une version marquée (tag myc) du transporteur, me permettant ainsi d'exprimer et de détecter GLUT8 à la surface cellulaire dans des neurones hippocampiques primaires et des cellules PC12. Cet outil m'a permis de montrer que GLUT8 réside dans un compartiment unique différent des lysosomes, du réticulum endoplasmique, des endosomes, ainsi que du Golgi. De plus, l'absence de translocation de GLUT8 à la suite de l'activation pharmacologique de plusieurs voies de signalisation suggère que GLUT8 ne transloque jamais à la membrane plasmique, mais jouerait plutôt un rôle au sein même de son compartiment intracellulaire unique. La seconde partie de mon travail a été centrée sur GLUT9, lequel -contrairement à GLUT8 -est incapable de transporter le glucose, mais conserve la capacité de se lier à des molécules dérivées du glucose, suggérant que ce pourrait être un senseur de glucose plutôt qu'un vrai transporteur. Le but du projet a donc été de définir si GLUT9 active des signaux intracellulaires quand il est lui-même activé. Pour ce faire, des vecteurs adénoviraux exprimant GLUT9 ont été utilisés pour infecter des lignées cellulaires dérivées de cellules ßpancréatiques et d'hépatocytes, GLUT9 étant exprimé de façon endogène dans le foie. La comparaison de l'expression des gènes entre des cellules infectées avec l'adénovirus exprimant GLUT9 et un adénovirus contrôle exprimant la GFP a permis d'identifier le facteur de transcription HNF4α comme étant régulé de façon GLUT9-dépendante. Résumé tout public Il existe deux types bien distincts de diabète. Le diabète de type 1 constitue environ 10 des cas de diabète et se déclare généralement à l'enfance. Il est caractérisé par une incapacité du pancréas à sécréter une hormone, l'insuline, qui régule la concentration sanguine du glucose (glycémie). Il en résulte une hyperglycémie sévère qui, si le patient n'est pas traité à l'insuline, conduit à de graves dommages à divers organes, ce qui peut mener à la cécité, à la perte des membres inférieurs, ainsi qu'à l'insuffisance rénale. Le diabète de type 2 se déclare plus tard dans la vie. Il n'est pas causé par une déficience en insuline, mais plutôt par une incapacité de l'insuline à agir sur ses tissus cibles. Le nombre de cas de diabète de type 2 augmente de façon dramatique, probablement à la suite de l'augmentation des cas d'obésité, le surpoids chronique étant le principal facteur de risque de diabète. Chez l'individu sain, le glucose sanguin est transporté dans différents organes (foie, muscles, tissu adipeux,...) où il est utilisé comme source d'énergie. Chez le patient diabétique, le captage de glucose est altéré, expliquant ainsi l'hyperglycémie. Il est ainsi crucial d'étudier les mécanismes permettant ce captage. Ainsi, des protéines permettant l'entrée de glucose dans la cellule depuis le milieu extracellulaire ont été découvertes depuis une vingtaine d'années. La plupart d'entre elles appartiennent à une sous-famille de protéines nommée GLUT (pour "GLUcose Transporters") dont cinq membres ont été caractérisés et nommés selon l'ordre de leur découverte (GLUT1-5). Néanmoins, la suppression de ces protéines chez la souris par des techniques moléculaires n'affecte pas totalement le captage de glucose, suggérant ainsi que des transporteurs de glucose encore inconnus pourraient exister. De telles protéines ont été isolées ces dernières années et nommées selon l'ordre de leur découverte (GLUT6-14). Durant mon travail de thèse, je me suis intéressé à deux d'entre elles, GLUT8 et GLUT9, qui ont été découvertes précédemment dans le laboratoire. GLUT8 est exprimé principalement dans le cerveau. La protéine n'est pas exprimée à la surface de la cellule, mais est retenue à l'intérieur. Des mécanismes complexes doivent donc exister pour déplacer le transporteur à la surface cellulaire, afin qu'il puisse permettre l'entrée du glucose dans la cellule. Mon travail a consisté d'une part à définir où se trouve le transporteur à l'intérieur de la cellule, et d'autre part à comprendre les mécanismes capables de déplacer GLUT8 vers la surface cellulaire, en utilisant des neurones exprimant une version marquée du transporteur, permettant ainsi sa détection par des méthodes biochimiques. Cela m'a permis de montrer que GLUT8 est localisé dans une partie de la cellule encore non décrite à ce jour et qu'il n'est jamais déplacé à la surface cellulaire, ce qui suggère que le transporteur doit jouer un rôle à l'intérieur de la cellule et non à sa surface. GLUT9 est exprimé dans le foie et dans les reins. Il ressemble beaucoup à GLUT8, mais ne transporte pas le glucose, ce qui suggère que ce pourrait être un récepteur au glucose plutôt qu'un transporteur à proprement parler. Le but de mon travail a été de tester cette hypothèse, en comparant des cellules du foie exprimant GLUT9 avec d'autres n'exprimant pas la protéine. Par des méthodes d'analyses moléculaires, j'ai pu montrer que la présence de GLUT9 dans les cellules du foie augmente l'expression de HNF4α, une protéine connue pour réguler la sécrétion d'insuline dans le pancréas ainsi que la production de glucose dans le foie. Des expériences complémentaires seront nécessaires afin de mieux comprendre par quels mécanismes GLUT9 influence l'expression de HNF4α dans le foie, ainsi que de définir l'importance de GLUT9 dans la régulation de la glycémie chez l'animal entier.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
Contexte: Le nombre de teignes du cuir chevelu et de la peau glabre étant en nette augmentation, l'identification du pathogène qui est indispensable pour un traitement ciblé, a, par conséquence, un grand intérêt pour la santé publique. Dans divers cas, un animal de compagnie peut être identifié en tant que source du pathogène. La fréquence de cultures restant stériles est particulièrement élevée en cas de prétraitement antifongique. Objectif: Le but de ce travail est de mettre au point une méthode rapide d'identification du dermatophyte pathogène in situ par PCR/séquençage dans les cas de teignes du cuir chevelu et/ou de la peau glabre. Matériel et méthodes : De l'ADN a été extrait de squames (N=5) et cheveux (N=21) dont l'examen direct démontrait une infection fongique (N=26) ou se révèlait négatif (N=1). Ensuite, une première PCR du segment 28s de l'ADN ribosomale fongique a été effectuée, suivie par une PCR nichée intérieure à ce segment. L'amplicon a été séquencé et le champignon est identifié par alignement. Résultats : Seule la PCR enchainée a permis d'obtenir une quantité suffisante d'amplicon pour permettre le séquençage. Dans 4 cas sur 5 de tinea pedis, 10 sur 12 de tinea glabra, respectivement 4 sur 4 de tinea capitis, dans lesquels un dermato- phyte a été identifié en culture, le même dermatophyte a été identifié par PCR/séquençage. Une fois sur 27 prélèvements, un autre dermatophyte a été identifié par PCR/séquençage. Ce résultat pourrait être dû à une fausse identification du champignon en culture. Dans un cas de tinea pedis et un cas de tinea corporis, la culture est restée stérile, mais un dermatophyte a pu être identifié par PCR et séquençage. Conclusions : La méthode décrite est à la fois rapide (24 h au lieu de deux semaines pour la culture), sensible et très spécifique. Elle est particulièrement utile dans les cas de teigne du cuir chevelu, dans lesquels le traitement est différent selon l'espèce de dermatophyte et où il s'agit d'un traitement systémique lourd, souvent chez l'enfant.
Resumo:
RESUME Les nombreuses mines de plomb et d'argent du Valais témoignent d'une activité minière importante par le passé, sans toutefois dévoiler ni l'importance des minéralisations, ni l'ancienneté de l'exploitation. La présente recherche a pour but de comprendre pourquoi les grandes mines sont concentrées dans une région, et de déterminer la chronologie de leur exploitation. L'originalité de ce travail réside dans son interdisciplinarité, plus précisément dans l'application des méthodes minéralogiques pour résoudre une problématique historique. Afin d'évaluer les ressources minières en plomb et en argent du Valais, 57 mines et indices ont été repérés et échantillonnés. Les signatures isotopiques du Pb (74 analyses) et les compositions chimiques élémentaires (45 analyses) ont été déterminées. Les plus grandes exploitations se situent dans la nappe de Siviez-Mischabel, au Sud d'une ligne Vallée du Rhône / Val de Bagnes ainsi que dans le Lötschental. Elles sont liées, d'après leur signature isotopique de plomb, à des minéralisations d'âge calédonien (408 à 387 Ma) ou tardi-hercynien (333 à 286 Ma). À ces périodes, l'ancien continent est très lourd et subit une subsidence thermique. Des premières fractures d'extrême importance se forment. Comme il s'agit d'accidents tectoniques majeurs, des gisements de grande extension peuvent se former dans ce contexte. D'autres minéralisations se situent dans les domaines helvétiques (Massif des Aiguilles Rouges, Massif du Mont Blanc et couverture sédimentaire), couvrant une région au Nord de la Vallée du Rhône et du Val d'Entremont. D'âge post-hercynien à tardi-alpin (notons qu'il n'y a pas de minéralisations d'âge tertiaire), elles sont pour la plupart liées à des intrusions granitiques, sources de plomb juvénile. Les mines situées dans ces unités tectoniques sont nettement moins étendues que celles de la nappe de Siviez-Mischabel, ce qui permet de penser que les minéralisations correspondantes le sont également. Les périodes d'exploitation des mines peuvent être déterminées par quatre approches différentes l'archéologie minière, la lecture des textes historiques, l'étude des déchets métallurgiques et la comparaison de la signature isotopique du plomb, que l'on mesure dans un objet archéologique bien daté (monnaie, bijoux etc.), avec celles des minerais. Cette dernière méthode a été appliquée et développée dans le cadre de la présente recherche. Pour ce faire, 221 échantillons d'objet en plomb ou en argent datés entre l'Âge du Fer et le Moyen Age ont été analysés par la méthode des isotopes de plomb et comparés à environ 1800 signatures isotopiques de minerais des gisements les plus importants en Suisse et en Europe. Avant l'époque romaine et jusqu'au 1 er siècle de cette époque, le plomb provient principalement des mines de la péninsule ibérique alors en pleine activité. Un apport des mines d'Europe tempérée, notamment des Vosges, reste à confirmer. A partir du 1" siècle de notre ère, le plomb a principalement été importé en Suisse occidentale de grands centres de productions situées en Allemagne du Nord (région d'Eifel). Les mines de plomb valaisannes, notamment celles de Siviez, débutent leur exploitation en même temps, principalement pour couvrir les besoins locaux, mais également pour l'exportation jusque dans l'arc lémanique et, dans une moindre importance, au-delà. À partir du 4ème siècle, le besoin en plomb a été couvert par un apport des mines locales et par la refonte d'objets anciens. Ce changement d'approvisionnement est probablement lié aux tensions créées par les invasions germaniques durant la seconde moitié du 3' siècle ; le marché suisse n'est dès lors plus approvisionné par le nord, c'est-à-dire par la vallée du Rhin. Quant à l'argent, l'exploitation de ce métal est attestée à partir de la fin du La Tène, peu après l'apparition de ce métal dans la région valaisanne. L'échantillonnage ne couvrant pas l'époque romaine, rien n'est connu pour cette période. A partir du 5" siècle, une exploitation d'argent est de nouveau attestée. Cependant, l'exploitation d'argent des mines locales ne gagne en importance qu'à partir du Moyen Âge avec les frappes monétaires, notamment les frappes carolingiennes et épiscopales valaisannes. Les sources d'argent sont différentes selon leur utilisation : à part quelques exceptions notamment vers la fin du La Tène et au tardo-antique, les bijoux et objets de cultes ont été souvent créés à partir d'argent refondu, contrairement aux monnaies pour lesquelles l'argent provient des mines locales. On note un approvisionnement différent de ce métal pour les objets, notamment les monnaies, selon leur lieu de fabrication : on peut clairement distinguer les objets valaisans de ceux du Plateau Suisse. SUMMARY The many lead and silver mines of the Valais testify of an important mining activity in the past, without however revealing neither the importance of the mineralizations, nor the era of the exploitation. The purpose of this research is to understand why the large mines are concentrated in one region, and to determine the history of their exploitation. The uniqueness of this work lies in its interdisciplinarity, more precisely in the application of mineralogical methods to solve historical problems. In order to evaluate the lead and silver mining resources of the Valais region, 57 mines and ore deposits were located and sampled. The isotope signatures of Pb (74 analyses) and the compositions of the chemical elements (45 analyses) were determined. The largest activities are in the Siviez-Mischabel area, located in the South of the boundary formed by the Rhone, Bagnes and Lotschental valleys. According to their lead isotope signatures, they are linked to mineralizations of the Caledonian (408 to 387 my) or tardi-Hercynian (333 to 286 my) orogenies. In those times, the old continent was very heavy and underwent a thermal subsidence. First fractures of great significance were formed. Through these major tectonic events, large extended ore deposits can be formed. Other mineralizations are found in the helvetic regions situated north of the Rhone and the Entremont valley (the Aiguilles Rouges basement, Mount Blanc basement and the covering sediment). Because they are from post-hercynien to tardi-alpine age (there are no mineralizations of tertiary age), they are mainly linked to granite intrusions, the sources of juvenile lead. The mines found in these tectonic units are significantly less extensive than those of the Siviez-Mischabel area, leading to the assumption that the respective mineralizations extend accordingly. The history of exploitation of the mines can be determined by four different sources: mining archaeology, historical texts, metallurgical waste, and the comparison of the isotope signature of the lead from accurately dated archaeological objects (currency, jewels etc), with those of the ores. This last approach was applied and developed within the framework of this research. The lead isotope signatures of 221 lead or silver objects from the Iron Age to the Middle Age were compared with approximately 1800 samples of ore of the most important ore deposits in Switzerland and Europe. Before the Roman time up to the 1st century, lead comes mainly from the mines of the Iberian Peninsula then in full activity. A contribution of the mines of Central Europe, in particular of the Vosges, remains to be confirmed. From the 1st century on, lead was mainly imported into Western Switzerland from Northern Germany (Eiffel region). The lead mines in the Valais region, in particular those of Siviez, begin their exploitation at the same time, mainly to meet the local needs, but also for export to the lemanic basin and of lesser importance, beyond. As from the 4th century, the need of lead was met by the production from local mines and the recycling of old objects. This change of supply is probably related to the tensions created by the Germanic invasions during second half of the 3rd century; as a consequence, the Swiss market is not supplied any more by the north, i.e. the Rhine valley. Silver production is confirmed starting from the end of La Tene, shortly after the appearance of this metal in the Valais region. Since no objects of Roman origin were analyzed, nothing is known for this period. From the 5th century on, silver production is again confirmed. However, significant silver production from local mines starts only in the Middle Age with the coinage, in particular Carolingian and Episcopal minting from the Valais region. The sources of silver differ according to their use: besides some exceptions in particular towards the end of La Tene and the tardi-Roman, the jewels and objects of worships were often created from recycled silver, contrary to the coins the silver for which comes from the local mines. A different source of silver is observed according to the location of coin manufacture: Objects originating from the Valais region are clearly distinguished from those from the Plateau Suisse. ZUSAMMENFASSUNG Die grosse Zahl von Blei- und Silberminen im Wallis ist Zeugnis einer bedeutenden Bergbautätigkeit, es fehlen aber Hinweise über ihren Umfang und den Zeitraum ihrer Ausbeutung. Die vorliegende Arbeit sucht zu ergründen, warum grosse Minen sich in einer eng begrenzten Region häufen und in welchem Zeitraum sie genutzt wurden. Die Besonderheit der Studie liegt in ihrer Interdisziplinarität, genauer in der Anwendung von mineralogischen Methoden zur Beantwortung historischer Fragestellungen. Zur Beurteilung der Lagerstätten wurden von 57 Minen und Aufschlüssen Proben entnommen oder Nachweise erbracht und mittels 74 Isotopen-Analysen von Blei und 45 chemischen Gesamtanalysen ausgewertet. Die wichtigsten Vorkommen liegen in der Siviez- Mischabel- Decke südlich der Linie Rhonetal- Val de Bagnes, sowie im Lötschental. Die Bleiisotopen- Alter weisen ihre Entstehung der kaledonischen (408 - 387 Mio. J.) oder der spät- herzynischen (333 - 286 Mio. J.) Gebirgsbildungsphase zu. In dieser Periode ist die kompakte Landmasse sehr schwer und erfairt eine thermische Absenkung. Es bilden sich tektonische Brüche von kontinentaler Ausdehnung. Die grossen tektonischen Bewegungen ermöglichen die Bildung von ausgedehnten Lagerstätten. Andere Vorkommen finden sich im Bereich der Helvetischen Alpen (Aiguilles Rouges Massiv, Mont-Blanc-Massiv und Sediment-Decken) im Gebiet nördlich des Rhonetales bis zum Val d'Entremont. Altersmässig sind sie der nach-hercynischen bis zur spät-alpidischen Orogenese zuzuweisen (auffällig ist das Fehlen von Vorkommen im Tertiär) und haben sich meist in der Folge von Granit- Intrusion, dem Ursprung von primärem Blei ausgebildet. Die Bergwerke in diesem Bereich sind deutlich weniger ausgedehnt als jene in der Siviez-Mischabel-Decke und entsprechen wahrscheinlich dem geringen Umfang der zugehörigen Vorkommen. Die Nutzungsperioden der Minen können mit vier verschiedenen Methoden bestimmt werden: Minenarchäologie, Historische Quellen, Auswertung von metallischen Abfällen (Schlacken) und Vergleich der Bleiisotopen-Zusammensetzung von Erzen mit jener von zeitlich gut datierbaren archäologischen Gegenständen (Münzen, Schmuckstücke). Die letztere Methode wurde im Rahmen der vorliegenden Forschungsarbeit entwickelt und angewendet. Zu diesem Zweck wurden an 221 Proben von Blei- oder Silberobjekten, die in die Periode zwischen Eisenzeit und Mittelalter eingestuft werden können, Bleiisotopen- Analysen durchgeführt und mit ca. 1800 Proben aus den wichtigsten Lagerstätten der Schweiz und Europas verglichen. Vor der Römerzeit und bis ins 1. Jahrh. stammt das Blei vornehmlich aus den in jener Zeit in voller Ausbeutung begriffenen Minen der Iberischen Halbinsel. Der Beitrag von Mitteleuropa, besonders der Vogesen, muss noch bestätigt werden. Ab dem 1. Jahrh. nach Chr. wurde die Westschweiz hauptschlich mit Blei aus den grossen Produktionszentren Norddeutschlands, vorwiegend der Eifel, versorgt. In dieser Periode setzt die Ausbeutung der Bleiminen des Wallis, besonders von Siviez, ein. Sie dienen der Deckung des örtlichen Bedarfs aber auch der Ausfuhr in das Gebiet des Genfersees und in einem bescheidenen Rahmen sogar darüber hinaus. Ab dem 4. Jahrhundert wurden vermehrt alte Objekte eingeschmolzen. Dieser Wechsel der Versorgungsquellen war vermutlich eine Folge der Wölkerwanderung in der zweiten Hälfte des 3. Jahrhunderts. Ab diesem Zeitpunkt war Helvetien der Zugang zu den Versorgungsquellen des Nordens, besonders des Rheinlandes, verwehrt. Der Abbau von Silber ist ab dem Ende des La Tène nachgewiesen, nur wenig nach dem Auftreten dieses Metalls im Wallis. Über die Römerzeit können wegen dem Fehlen entsprechender Proben keine Aussagen gemacht werden. Eine erneute Abbauperiode ist ab dem 5. Jahrhundert nachgewiesen. Die Produktion der örtlichen Minen erreicht aber erst im Mittelalter eine gewisse Bedeutung mit der Prägung von Mnzen durch die Karolinger und die Walliser Bischöfe. Die Herkunft des Silbers ist abhängig von dessen Verwendung. Mit wenigen Ausnahmen in der Zeit des La Tène und der späteren Römerzeit wurde für Kunst- und Kult- Gegenstände rezykliertes Silber verwendet, für Münzprägungen neues Silber aus den örtlichen Minen. Von Einfluss auf die Herkunft war auch der Produktionsstandort: Die Objekte aus dem Wallis unterscheiden sich deutlich von jenen des Mittellandes.
Resumo:
De nombreuses méthodes de classification automatique de textes (supervisée ou non) existent. Elles se sont particulièrement développées depuis la création du web en vue d'améliorer les moteurs de recherche. Au delà de ce champs d'application, elles peuvent aussi être utiles pour « découvrir » ou « redécouvrir » ce qui caractérise une classe de textes aussi simplement que possible. Dans l'approche statistique développée ici, il s'agira de partitionner des parties de textes en types de discours tels que narratif, explicatif, argumentatif etc. en utilisant un minimum d'information, à savoir les catégories morphosyntaxiques (CMS). Les premiers résultats obtenus mettent en évidence des liens significatifs entre les CMS, les types de discours et des textes annotés par un expert humain ; ces relations sont toutefois encore incomplètes et difficiles à interpréter d'un point de vue linguistique.
Resumo:
RESUME : Dans de nombreux environnements professionnels, des travailleurs sont exposés à des bioaérosols, que ce soit des bactéries, champignons, virus ou fragments de microorganismes. Ces bioaérosols peuvent être responsables de maladies infectieuses (p.ex. légionellose), ou de maladies non infectieuses (touchant principalement les voies respiratoires). Cependant, pour une majorité des bioaérosols, les relations entre une exposition à une certaine dose et les effets sur la santé humaine sont peu connues. Ce manque de connaissances étant dû principalement à une absence de méthodes adéquates permettant de quantifier cette exposition. La real-time quantitative PCR (Q-PCR) est un outil basé sur la quantification du DNA dont le potentiel de quantification des bioaérosols dans des environnements professionnels n'a pas été exploré. Le but de ce travail est de développer une méthode de Q-PCR permettant de quantifier des bioaérosols - en particulier des bactéries - et d'appliquer ces techniques pour des mesures préventives sur les lieux de travail. Dans ce travail, la Q-PCR a été appliquée à 1a quantification de pathogènes, de groupes taxonomiques spécifiques et de la charge bactérienne totale dans des environnements de travail, stations d'épuration et élevages industriels de volailles. Nous avons montré que la Q-PCR : 1) est capable de quantifier des pathogènes difficilement cultivables si ceux-ci sont présents en concentration importante, 2) a le potentiel pour être un outil performant dans l'étude des communautés bactériennes présentes dans l'air d'environnements professionnels, 3) est aussi performante que le comptage total des bactéries par DAPI pour quantifier 1a charge bactérienne totale et est donc une alternative prometteuse aux techniques culture-dépendantes. La Q-PCR pourrait être utilisée afin d'établir des relations doses-réponses pour la charge bactérienne ; soit dans des populations de travailleurs hautement exposés (p.ex. les éleveurs de volailles), soit en exposant des cellules à des concentrations de bioaérosols mesurées par Q-PCR. ABSTRACT : Many workers are exposed to bioaerosols such as bacteria, fungi, viruses or fragments of microorganisms. These bioaerosols can be responsible of infectious (e.g. legionellosis) or non infectious diseases (mainly respiratory symptoms). However, for a majority of them, the relationship between exposure and effects on human health is not clearly established. This is mainly due to the lack of valid quantitative assessment methods. Real-time quantitative PCR (Q-PCR) is a tool based on the quantification of DNA, of which the potential for the quantification of bioaerosols in work environments has not yet been explored. The aim of this work was to develop a Q-PCR method permitting to quantify bioaerosols -mainly bacteria and to apply those techniques in occupational environments. In this work, Q-PCR was applied to the quantification of pathogens, of specific taxonomic groups and of the total bacterial load in two different occupational settings, namely wastewater treatment plants and poultry houses. We showed that Q-PCR : 1) is capable of quantifying difficult to cultivate pathogens; when they are present at high concentrations, 2) has the potential to be a useful tool for studying bacterial communities in the air of work environments, 3) is as efficient as epifluorescence for the quantification of total bacterial load, and is a promising alternative to the culture-dependent methods. Q-PCR could be used to establish doses-responses relationships for bacterial load, either in populations of highly exposed workers such as poultry farmers, or by exposing cells to concentrations of bioaerosols quantified with Q-PCR.
Resumo:
The thesis addresses the issue of parenthood and gender equality in Switzerland through the emergence of parental leave policies. This is an original and relevant research topic, as Switzerland is one of the few industrialized countries that have not yet implemented a parental or paternity leave. I first describe the emergence of parental leave policies in the last ten to fifteen years in the political, media, and labor-market spheres. Secondly, adopting a gender and discursive theoretical approach, I analyze whether and to what extent this emergence challenged gendered representations and practices of parenthood. The multilevel and mixed-methods research design implies analyzing various data sets such as parliamentary interventions (N=23J and newspaper articles (N=579) on parental leave policies. A case study of a public administration which implemented a one-month paid paternity leave draws on register data of leave recipients (N=95) and in-depth interviews with fathers and managers (n=30). Results show that parental leave policies, especially in recent years, have been increasingly problematized in the three social spheres considered, as a result of political and institutional events. While there is a struggle over the definition of the legitimate leave type to implement [parental or paternity leave) in the political sphere, paternity leave has precedence in the media and labor-market spheres. Overall, this emergence contributes to making fatherhood visible in the public sphere, challenging albeit in a limited way gendered representations and practices of parenthood. Along with representations of involved fatherhood and change in gender relations, different roles and responsibilities are attributed to mothers and fathers, the latter being often defined as secondary, temporary and optional parents. Finally, I identify a common trend, namely the increasing importance of the economic aspects of parental leave policies with the consequence of sidelining their gender-equality potential. The dissertation contributes to the literature which analyzes the interconnections between the macro-, the meso- and the micro-levels of society in the constitution of gender relations and parenthood. It also provides useful tools for the analysis of the politics of parental leave policies in Switzerland and their effects for gender equality. - Cette thèse traite de la parentalité et de l'égalité de genre en Suisse à travers l'émergence des congés parentaux. Ce sujet de recherche est original et pertinent puisque la Suisse est à ce jour un des seuls pays industrialisés à ne pas avoir adopté de droit au congé parental ou paternité. Cette recherche décrit l'émergence des congés parentaux au cours des 10 à 15 dernières années dans les sphères politique, médiatique et du marché de l'emploi en Suisse. En combinant perspective de genre et analyse de discours, elle examine dans quelle mesure cette émergence remet en question les représentations et pratiques genrées de parentalité. Des méthodes de recherche mixtes sont employées pour analyser des interventions parlementaires (N=23) et des articles de presse (N=579) sur les congés parentaux. L'étude de cas d une entreprise publique qui a adopté un congé paternité payé d'un mois s'appuie sur des données de registre (N=95) et des entretiens semi-structurés avec des pères et des cadres (n=30). Les résultats indiquent que dans les trois sphères considérées, les congés parentaux ont reçu une attention croissante au cours de ces dernières années, en lien avec des événements politiques et institutionnels. Alors que dans la sphère politique il n'y a pas de consensus quant au type de congé considéré comme légitime (congé parental ou paternité), dans les sphères médiatique et du marché de l'emploi le congé paternité semble l'emporter. Dans l'ensemble, l'émergence des congés parentaux contribue à rendre la paternité plus visible dans l'espace public, remettant en question-bien que d'une manière limitée-les représentations genrées de la parentalité. En effet, d'une part l'image de pères impliqués et de rapports de genre plus égalitaires au sein de la famille est diffusée. D'autre part, mères et pères continuent à être associés à des rôles différents, les pères étant définis comme des parents secondaires et temporaires. Finalement, l'analyse révèle une tendance générale, soit l'importance croissante accordée aux aspects économiques des congés parentaux, avec pour conséquence la mise à l'écart de leur potentiel pour l'égalité de genre. Cette thèse contribue à la recherche sur les liens entre les niveaux macro- meso- et microsociaux dans la constitution des rapports de genre et de la parentalité. Elle propose également des outils pour analyser les politiques de congés parentaux en Suisse et leurs implications pour l'égalité de genre.
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.