1000 resultados para Héparine de faible poids moléculaire
Resumo:
Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.
Resumo:
Résumé -Caractéristiques architecturales des génomes bactériens et leurs applications Les bactéries possèdent généralement un seul chromosome circulaire. A chaque génération, ce chromosome est répliqué bidirectionnellement, par deux complexes enzymatiques de réplication se déplaçant en sens opposé depuis l'origine de réplication jusqu'au terminus, situé à l'opposé. Ce mode de réplication régit l'architecture du chromosome -l'orientation des gènes par rapport à la réplication, notamment - et est en grande partie à l'origine des pressions qui provoquent la variation de la composition en nucléotides du génome, hors des contraintes liées à la structure et à la fonction des protéines codées sur le chromosome. Le but de cette thèse est de contribuer à quantifier les effets de la réplication sur l'architecture chromosomique, en s'intéressant notamment aux gènes des ARN ribosomiques, cruciaux pour la bactérie. D'un autre côté, cette architecture est spécifique à l'espèce et donne ainsi une «identité génomique » aux gènes. Il est démontré ici qu'il est possible d'utiliser des marqueurs «naïfs » de cette identité pour détecter, notamment dans le génome du staphylocoque doré, des îlots de pathogénicité, qui concentrent un grand nombre de facteurs de virulence de la bactérie. Ces îlots de pathogénicité sont mobiles, et peuvent passer d'une bactérie à une autre, mais conservent durant un certain temps l'identité génomique de leur hôte précédent, ce qui permet de les reconnaître dans leur nouvel hôte. Ces méthodes simples, rapides et fiables seront de la plus haute importance lorsque le séquençage des génomes entiers sera rapide et disponible à très faible coût. Il sera alors possible d'analyser instantanément les déterminants pathogéniques et de résistance aux antibiotiques des agents pathogènes. Summary The bacterial genome is a highly organized structure, which may be referred to as the genome architecture, and is mainly directed by DNA replication. This thesis provides significant insights in the comprehension of the forces that shape bacterial chromosomes, different in each genome and contributing to confer them an identity. First, it shows the importance of the replication in directing the orientation of prokaryotic ribosomal RNAs, and how it shapes their nucleotide composition in a tax on-specific manner. Second, it highlights the pressure acting on the orientation of the genes in general, a majority of which are transcribed in the same direction as replication. Consequently, apparent infra-arm genome rearrangements, involving an exchange of the leading/lagging strands and shown to reduce growth rate, are very likely artifacts due to an incorrect contig assembly. Third, it shows that this genomic identity can be used to detect foreign parts in genomes, by establishing this identity for a given host and identifying the regions that deviate from it. This property is notably illustrated with Staphylococcus aureus: known pathogenicity islands and phages, and putative ancient pathogenicity islands concentrating many known pathogenicity-related genes are highlighted; the analysis also detects, incidentally, proteins responsible for the adhesion of S. aureus to the hosts' cells. In conclusion, the study of nucleotide composition of bacterial genomes provides the opportunity to better understand the genome-level pressures that shape DNA sequences, and to identify genes and regions potentially related to pathogenicity with fast, simple and reliable methods. This will be of crucial importance when whole-genome sequencing will be a rapid, inexpensive and routine tool.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Abstract : The maintenance of genome stability is a challenge for all living organisms. DNA is regularly subjected to chemical alterations by both endogenous and exogenous DNA damaging agents. If left unrepaired, these lesions will create mutations or lead to chromosomal instability. DNA crosslinking agents probably bring about the most toxic lesions. By linking covalently the two strands of DNA, crosslinking agents will impede essential cellular processes such as replication and transcription. Cells from Fanconi anaemia patients are extremely sensitive to these agents. Fanconi anaemia (FA) is a rare chromosomal instability disorder that leads to developmental defects, pancytopenia and cancer susceptibility. FA is a genetically heterogeneous disease with thirteen complementation groups identified. Proteins encoded by the FA genes work together in the FA pathway. Eight of these proteins form the FA core complex (FANC-A, B, C,E, F, G, L and -M), whose integrity is required to monoubiquitinate FANCD2 and FANCI in response to DNA damage. The hypersensitivity of FA cells to crosslinking agents, which perturb the progression of replication forks, has led to the hypothesis that FA proteins play a crucial role in the response to replication stress. However, at the molecular level, the functions of the FA pathway remain largely unknown. Our efforts were first focused on the characterization of FANCD2, "the key effector of the FA pathway". Using different substrates, we found that in vitro, purified hFANCD2 preferentially binds single strand DNA and double strand DNA extremities. Concomitantly, FANCM was identified as a new component of the FA core complex. Moreover FANCM was shown to have specific branch migration activities and probably a role as a "landing platform" on DNA for the other components of the core complex. By using FANCM mutants carrying deletions within the internal domain, we investigated the role of FANCM as a DNA anchor protein for the core complex. We observed that indeed, a specific part of the internal domain of FANCM interacts with components of the core complex. Finally, in collaboration with Weidong Wang's lab we characterized two new components of the FA pathway: FAAP10 and FAAP16. As a heterodimer these two proteins show affinity for dsDNA, and anneal complementary oligonucleotides in vitro. Moreover these proteins can associate with FANCM via a part of its internal domain. We find that FANCM, FAAP 10 and FAAP 16 can co-exist on the branch point of replication and recombination intermediates, and that FAAP10 and FAAP16 stimulate replication fork reversal by FANCM. These results suggest that FANCM may function as a landing platform for the core complex. After loading on DNA, the core complex can activate FANCD2 through monoubiquitination leading to its recruitment to the site of damage. Since ssDNA and double strand breaks are intermediates that are generated as a consequence of collapsed replication forks, FANCD2 by binding to ds DNA ends and ssDNA could protect such structures from the recombination repair machinery and prevent unscheduled recombination events. Alternatively, FANCD2 could avoid nucleases from gaining access to collapsed forks, preserving the DNA in state that can be used as a starting point for resumption of DNA synthesis. The overall comprehension of the FA pathway is far from been complete. Our results unravel new aspects of Fanconi Anaemia, which hopefully in the near future will address keys questions leading to a better understanding of the fascinating Fanconi Anaemia. Résumé : Le maintien de l'intégrité du génome est fondamentale chez tous les organismes vivants. L'ADN est constamment altéré par des composés aussi bien endogènes qu'exogènes. Si ces altérations ne sont pas réparées, elles peuvent conduire à l'apparition de mutations, ainsi qu'à une instabilité génomique accrue. Les lésions les plus sévères qui peuvent survenir sur l'ADN, sont les pontages inter caténaires. Des agents pontants en liant de façon covalente les deux brins d'ADN, vont empêcher le déroulement normal de processus cellulaires essentiels tels que la réplication ou la transcription. La compréhension des mécanismes permettant à la cellule de tolérer et réparer ces lésions est primordiale, notamment dans le cas des patients atteints de l'anémie de Fanconi qui présentent une très grande sensibilité à ces composés pontants. L'anémie de Fanconi est une maladie génétique rare appartenant à un groupe de pathologies associées à une grande instabilité chromosomique. Les patients atteints de l'anémie de Fanconi présentent des malformations du squelette, une pancytopénie et une forte propension à la survenue de cancer. L'anémie de Fanconi est génétiquement très hétérogène. À ce jour, 13 gènes codant pour 13 protéines FANC différentes ont été identifiés. Huit de ces protéines fonctionnent ensemble au sein d'un complexe (nommé le complexe FANC) ayant pour but de monoubiquitiner FANCD2 et FANCI en réponse à la formation de lésions sur l'ADN. L'extrême sensibilité des cellules de patients atteints de l'anémie de Fanconi à ces agents pontant l'ADN suggère l'implication des protéines FANC dans la réponse cellulaire suite à une stress réplicatif. Cependant, le rôle moléculaire exact de ces protéines demeure encore inconnu. Après purification, nous avons observé que FANCD2 était capable de lier l'ADN simple brin, ainsi que les extrémités d'ADN in vitro. Dans le même temps, FANCM fut identifié comme appartenant au complexe FANC. FANCM est décrit comme une translocase capable de promouvoir le déplacement de point de jonction dans des structures d'ADN spécifiques in vitro. De plus, en se liant à l'ADN, FANCM peut agir comme une plateforme pour les autres protéines FANC, leur permettant ainsi d'être adressées à l'ADN. En créant des protéines FANCM recombinantes ayant des délétions dans le domaine interne, nous avons pu observer que certaines protéines du complexe FANC se fixent à des sites spécifiques sur le domaine interne de FANCM. Enfin, au travers d'une collaboration, nous avons été amenés à caractériser deux nouvelles protéines appartenant au complexe FANC : FAAP 10 et FAAP16. Elles s'associent à FANCM par l'intermédiaire du domaine interne, et forment ainsi un hétérotrimére. La présence de FAAP10 et FAAP16 n'affecte pas la liaison de FANCM à l'ADN, mais semble potentialiser son activité de régression in vitro. FANCM semble donc fonctionner comme une plateforme pour les autres composants du complexe FANC. Ces derniers, une fois liés à l'ADN permettent la monoubiquitination de FANCD2 et son recrutement au site lésé de l'ADN. FANCD2 en se liant de façon préférentielle à l'ADN simple brin et aux extrémités d'ADN qui sont générés lors de l'arrêt et du démantèlement d'une fourche de réplication, pourrait protéger ces même fourches de réplication arrêtées, d'évènements de recombinaison aléatoires. Nos résultats apportent de nouveaux éléments concernant les mécanismes moléculaires de l'anémie de Fanconi. Enfin, l'étude de l'anémie de Fanconi permet aussi de mieux comprendre les mécanismes mis en place par la cellule pour tolérer des lésions survenant lors de la réplication.
Resumo:
Résumé : Description : Ce travail de thèse évalue l'impact de la consommation importante d'alcool sur les facteurs de risque cardiovasculaire et l'estimation du risque cardiovasculaire à 10 ans (risque de développer une maladie coronarienne}, dans une population avec une consommation moyenne élevée d'alcool. La consommation modérée d'alcool a été liée à un risque plus faible de développer une maladie coronarienne. Cependant, les données concernant la consommation importante d'alcool et le risque de développer une maladie coronarienne sont conflictuelles. Il y a également peu d'études dans lesquelles les consommations importantes d'alcool ont pu être évaluées en raison du petit nombre de sujets présentant une telle consommation. Résultats: Nous avons utilisé les données de l'étude CoLaus, une étude populationnelle qui inclut des adultes, âgés de 35 à 75 ans, de la ville de Lausanne. Nous avons inclus 5'769 participants, sans maladie cardiovasculaire, pour lesquels la consommation d'alcool d'une semaine a été catégorisée en 0, 1 à 6, 7 à 13, 14 à 20, 21 à 27, 28 à 34 et >=35 verres/semaine et en non-consommateur (0 verre/semaine), consommateur modéré (1 à 13 verres/semaine), important (14 à 34 verres/semaine) et très important (>= 35). La tension artérielle et les lipides ont été mesurés et le risque de développer une maladie coronarienne à 10 ans a été calculé en utilisant le score de Framingham. 73% des participants consommaient de l'alcool; 16% étaient des consommateurs importants et 2% des consommateurs très importants. L'analyse rnultivariée a montré une augmentation du cholestérol HDL avec la consommation d'alcool (de 1.570.01 [moyenne +- erreur standard] chez les non consommateurs à 1.880.03 mmol/L chez les consommateurs très importants), des triglycérides (1.17+-1.01 à 1.32+-1.05 mmol/L) et des valeurs de tension artérielle systolique (127.4+-0.4 à 132.2+-.4 mm Hg) et diastolique (78.7+-0.3 à 81.7+-0.9 mm Hg, toutes les valeurs de p pour trend<0.001). Quant au risque de développer une maladie coronarienne à 10 ans, il a augmenté de 4.31%+-0.10 à 4.90%+-0.37 (p=0.03) avec la consommation d'alcool, en décrivant une courbe en J. En examinant le type de consommation, on a vu que la consommation de vin a plus d'effet sur l'augmentation des valeurs de cholestérol HDL, alors que la consommation de bière ou de spiritueux a plus d'effet sur l'augmentation des valeurs de triglycérides. Conclusions et perspectives: Nos résultats montrent qu'en ce qui concerne l'estimation du risque cardiovasculaire à 10 ans, l'effet protecteur de la consommation d'alcool disparaît pour des consommations très importantes, car l'effet bénéfique des valeurs augmentées de cholestérol HDL est contrecarré par l'augmentation des valeurs de tension artérielle. Quant aux différents types d'alcool, d'autres études sont nécessaires pour mieux évaluer leur effet spécifique sur les facteurs de risque cardiovasculaire.
Resumo:
L'hépatite D chronique est la forme la moins fréquente, mais la plus sévère des hépatites virales chroniques. L'hépatite D ne s'observe qu'en combinaison avec une infection par le virus de l'hépatite B (HBV). Chaque patient dont l'antigène HBsAg est positif doit être mis au bénéfice d'un dépistage sérologique à la recherche d'une co-infection par le virus de l'hépatite D (HDV). Une hépatite D chronique doit être plus particulièrement recherchée dans les situations suivantes: hépatite active avec HBsAg positif et HBV DNA faible ou indétectable, exacerbation d'une hépatite B chronique avec anticorps IgM anti-HBc négatif, hépatite B aiguë sévère ou fulminante. Le traitement actuel consiste en l'administration d'interféron-a pégylé. Ce traitement n'est cependant curatif que chez 20% des patients environ. Une transplantation hépatique doit être envisagée chez les patients ayant une cirrhose avancée ou un carcinome hépatocellulaire d'extension limitée. Les mesures préventives contre l'hépatite D sont les mêmes que celles contre l'hépatite B.
Resumo:
Ce livre décrit l'évolution des lois suisses qui ont traité de l'homosexualité. Il présente surtout, enrichie d'interviews, une histoire des associations qui ont réuni, dans une faible proportion il est vrai, les hommes qui se trouvaient concernés. L'action de ces pionniers fut capitale, mais ils partageaient avec les autorités un souci d'invisibilité. L'opinion publique réprouvait un comportement qu'elle considérait comme une anomalie ou un vice, que les législateurs réprimèrent avec modération, alors que l'Allemagne des années 1930 se déchaînait. Dans la seconde moitié du 20e siècle, avec la montée des mouvements de libération, vint le temps des militances de rue et du coming out. Les esprits s'ouvraient peu à peu quand explosa le SIDA. Ses victimes furent nombreuses. Le fléau bouleversa les milieux homosexuels. Les autorités décidèrent alors de s'allier résolument à leurs groupements afin de généraliser des actions préventives. En retraçant l'évolution des mobilisations, ce livre montre comment les luttes ont contribué à l'avancée des droits des homosexuels en Suisse au 20e siècle.
Resumo:
Contexte: Le nombre de teignes du cuir chevelu et de la peau glabre étant en nette augmentation, l'identification du pathogène qui est indispensable pour un traitement ciblé, a, par conséquence, un grand intérêt pour la santé publique. Dans divers cas, un animal de compagnie peut être identifié en tant que source du pathogène. La fréquence de cultures restant stériles est particulièrement élevée en cas de prétraitement antifongique. Objectif: Le but de ce travail est de mettre au point une méthode rapide d'identification du dermatophyte pathogène in situ par PCR/séquençage dans les cas de teignes du cuir chevelu et/ou de la peau glabre. Matériel et méthodes : De l'ADN a été extrait de squames (N=5) et cheveux (N=21) dont l'examen direct démontrait une infection fongique (N=26) ou se révèlait négatif (N=1). Ensuite, une première PCR du segment 28s de l'ADN ribosomale fongique a été effectuée, suivie par une PCR nichée intérieure à ce segment. L'amplicon a été séquencé et le champignon est identifié par alignement. Résultats : Seule la PCR enchainée a permis d'obtenir une quantité suffisante d'amplicon pour permettre le séquençage. Dans 4 cas sur 5 de tinea pedis, 10 sur 12 de tinea glabra, respectivement 4 sur 4 de tinea capitis, dans lesquels un dermato- phyte a été identifié en culture, le même dermatophyte a été identifié par PCR/séquençage. Une fois sur 27 prélèvements, un autre dermatophyte a été identifié par PCR/séquençage. Ce résultat pourrait être dû à une fausse identification du champignon en culture. Dans un cas de tinea pedis et un cas de tinea corporis, la culture est restée stérile, mais un dermatophyte a pu être identifié par PCR et séquençage. Conclusions : La méthode décrite est à la fois rapide (24 h au lieu de deux semaines pour la culture), sensible et très spécifique. Elle est particulièrement utile dans les cas de teigne du cuir chevelu, dans lesquels le traitement est différent selon l'espèce de dermatophyte et où il s'agit d'un traitement systémique lourd, souvent chez l'enfant.
Resumo:
SUMMARY : The evolution of animal societies, where some individuals forego their own reproductive opportunities to help others to reproduce, poses an evolutionary paradox that can be traced back to Darwin. Altruism may evolve through kin selection when the donor and recipient of altruistic acts are related to each other. In social insects, workers are generally highly related to the brood they rear when colonies are headed by a single queen. Yet some ants have an extraordinary social organization, called unicoloniality, whereby individuals from separate nests mix freely to form large supercolonies, which in some cases extend over hundreds of km. These supercolonies are characterised by a high number of queens (polygyny) and an absence of clear colony boundaries. This type of social organization represents an evolutionary paradox because relatedness between nestmates is effectively zero. In such conditions, kin selection cannot account for the evolution of reproductive altruism. Moreover, unicoloniality is thought to be unstable over time, because workers that can no longer aid close relatives may evolve more selfish strategies. The Argentine ant (Linepithema humile) is a highly invasive species listed among the hundred world's worst invaders by the UICN. Native from South America, L. humile has been accidentally introduced throughout the world. Native populations have been described as noninvasive with a family-based organization. In contrast, within its introduction range, they form unicolonial supercolonies that contain numerous nests without intraspecific aggression. The development of such unicolonial populations has been explained as a direct consequence of the ant's introduction into a new habitat, favouring a transition from family-based to open colonies. To determine if the social structure of the Argentine ant is fundamentally different between the native and the introduced range, we studied genetically and behaviourally native and introduced populations of L. humile over different geographic scales. Our results clearly indicated that there are no fundamental differences in the social organisation of the Argentine ant between the two ranges. Our investigations revealed that, contrary to previous claims, native populations have a unicolonial social organisation very similar to that observed in the introduced range. Consequently, the unicolonial social structure of the Argentine ant does not stem from a shift in social organization associated with introduction into new habitats but evolved in the native range and is likely a stable, evolutionarily ancient adaptation to the local environment. Our study on native populations of L. humile also gave important insight in the comprehension of the evolution of unicoloniality in the Argentine ant. Native supercolonies are relatively small compared to introduced ones and may co-habit in a same population. These supercolonies are genetically highly differentiated leading to a significant relatedness among nestmate workers when the different supercolonies of a population are taken as a reference population. This provides the necessary conditions for loin selection to operate. Furthermore, we examined a native population over time, which revealed a high supercolony extinction rate. If more competitive supercolonies are more likely to survive or replace other supercolonies, a subtle dynamical process between the spread of selfish traits within supercolony and the selective elimination of supercolonies with such traits may allow a stable equilibrium and the persistence of unicoloniality over time. Finally, a worldwide study of the Argentine ant showed that the introduced supercolonies originate from numerous independent introduction events. In conclusion, the success of the Argentine ant does not stem from a shift in social organization associated with its introduction into new habitats, but is most probably explained by the intrinsic characteristics developed in its native range. RESUME : L'altruisme de reproduction où certains individus renoncent à leur propre reproduction pour aider d'autres individus à se reproduire constitue l'un des plus grand paradoxe de l'évolution. En effet, comment expliquer l'évolution de comportements qui tendent à augmenter les chances de survie et le succès reproductif d'autres individus, alors que ces actes diminuent l'aptitude de leurs auteurs ? La théorie de la sélection de parentèle permet de résoudre ce problème. Cette théorie stipule qu'en aidant de proches parents à se reproduire, les individus peuvent promouvoir indirectement la transmission de copies de leurs propres gènes à la génération suivante. Chez les insectes sociaux, l'altruisme des ouvrières s'explique par la théorie de sélection de parentèle lorsque les colonies sont monogynes (constituées d'une seule reine) puisque les ouvrières sont fortement apparentées aux couvains dont elles s'occupent. Par contre, les espèces dites unicoloniales, dont les colonies forment des réseaux de nids appelés supercolonies, représentent toujours un paradoxe pour les théories de l'évolution puisque l'apparentement entre les différents individus d'un nid est nulle. De plus, l'unicolonialité ne devrait pas être stable sur le long terme parce que les ouvrières qui ne s'occupent plus de leur apparentés devraient développer des stratégies plus égoïstes au cours du temps. La fourmi d'Argentine (Linepithema humile) est une espèce invasive ayant un impact considérable sur son environnement. Originaire d'Amérique du Sud, elle a été introduite dans pratiquement toutes les régions du monde dont le climat est de type méditerranéen. Son incroyable succès invasif s'explique par sa structure sociale unicoloniale observée dans chacun des pays où elle a été introduite. Par contre, les rares études effectuées en Argentine ont suggéré que la fourmi d'Argentine n'était pas unicoloniale dans son aire native. L'unicolonialité chez la fourmi d'Argentine était donc considéré comme une conséquence de son introduction dans de nouveaux environnements. Durant cette thèse, nous avons vérifié si la structure sociale de cette espèce différait fondamentalement entre l'aire native et introduite. Pour cela, nous avons étudié, à différentes échelles géographiques, des populations introduites et argentines avec une approche génétique et comportementale. L'ensemble de nos résultats montrent que les différences entre les deux structure sociales ne sont pas aussi importantes que ce que l'on imaginait. Les populations natives sont aussi constituées de réseaux de nids coopérants. La taille de ses supercolonies est toutefois bien moins importante en Argentine et il n'est pas rare de trouver plusieurs supercolonies cohabitantes dans une même population. Nous avons démontré que ces réseaux de nids étaient constitués d'individus qui sont plus apparentés entre eux qu'ils ne le sont avec les individus d'autres supercolonies, ainsi l'unicolonialité dans son aire d'origine ne représente pas un réel paradoxe pour les théories de l'évolution. Finalement nous avons étudié la même population en Argentine à six ans d'intervalle et avons constaté que les supercolonies avaient un taux de survie très faible ce qui pourrait expliquer la stabilité de l'unicolonialité au cours du temps. Si les supercolonies les plus compétitives survivent mieux que les supercolonies dans lesquelles apparaissent des traits égoïstes, on devrait alors observer une dynamique entre l'apparition de traits égoïstes et l'élimination des supercolonies dans lesquelles ces traits égoïstes évolueraient. Finalement, une étude mondiale nous a montré que les supercolonies étaient originaires de nombreux événements d'introductions indépendants. En conclusion, le succès invasif de la fourmi d'Argentine n'est donc pas dû à un changement de comportement associé à son introduction mais est lié aux caractéristiques qu'elle a développées en Argentine.
Resumo:
Résumé Les tumeurs sont diverses et hétérogènes, mais toutes partagent la capacité de proliférer sans contrôle. Une prolifération dérégulée de cellules couplée à une insensibilité à une réponse apoptotique constitue une condition minimale pour que l'évolution d'une tumeur se produise. Un des traitements les plus utilisés pour traité le cancer à l'heure actuelle sont les chimiothérapies, qui sont fréquemment des composés chimiques qui induisent des dommages dans l'ADN. Les agents anticancéreux sont efficaces seulement quand les cellules tumorales sont plus aisément tuées que le tissu normal environnant. L'efficacité de ces agents est en partie déterminée par leur capacité à induire l'apoptose. Nous avons récemment démontré que la protéine RasGAP est un substrat non conventionnel des caspases parce elle peut induire à la fois des signaux anti et pro-apoptotiques, selon l'ampleur de son clivage par les caspases. A un faible niveau d'activité des caspases, RasGAP est clivé, générant deux fragments (le fragment N et le fragment C). Le fragment N semble être un inhibiteur général de l'apoptose en aval de l'activation des caspases. À des niveaux plus élevés d'activité des caspases, la capacité du fragment N de contrecarrer l'apoptose est supprimée quand il est clivé à nouveau par les caspases. Ce dernier clivage produit deux nouveaux fragments, N 1 et N2, qui contrairement au fragment N sensibilisent efficacement des cellules cancéreuses envers des agents chimiothérapeutiques. Dans cette étude nous avons prouvé qu'un peptide, appelé par la suite TAT-RasGAP317-326, qui est dérivé du fragment N2 de RasGAP et est rendu perméable aux cellules, sensibilise spécifiquement des cellules cancéreuses à trois génotoxines différentes utilisées couramment dans des traitements anticancéreux, et cela dans des modèles in vitro et in vivo. Il est important de noté que ce peptide semble ne pas avoir d'effet sur des cellules non cancéreuses. Nous avons également commencé à caractériser les mécanismes moléculaires expliquant les fonctions de sensibilisation de TAT-RasGAP317-326. Nous avons démontré que le facteur de transcription p53 et une protéine sous son activité transcriptionelle, nommée Puma, sont indispensables pour l'activité de TAT-RasGAP317-326. Nous avons également prouvé que TAT-RasGAP317-326 exige la présence d'une protéine appelée G3BP1, une protéine se liant a RasGAP, pour potentialisé les effets d'agents anticancéreux. Les données obtenues dans cette étude montrent qu'il pourrait être possible d'augmenter l'efficacité des chimiothérapies à l'aide d'un composé capable d'augmenter la sensibilité des tumeurs aux génotoxines et ainsi pourrait permettre de traiter de manière plus efficace des patients sous traitement chimiothérapeutiques. Summary Tumors are diverse and heterogeneous, but all share the ability to proliferate without control. Deregulated cell proliferation coupled with suppressed apoptotic sensitivity constitutes a minimal requirement upon which tumor evolution occurs. One of the most commonly used treatments is chemotherapy, which frequently uses chemical compounds that induce DNA damages. Anticancer agents are effective only when tumors cells are more readily killed than the surrounding normal tissue. The efficacy of these agents is partly determined by their ability to induce apoptosis. We have recently demonstrated that the protein RasGAP is an unconventional caspase substrate because it can induce both anti- and pro-apoptotic signals, depending on the extent of its cleavage by caspases. At low levels of caspase activity, RasGAP is cleaved, generating an N-terminal fragment (fragment N) and a C-terminal fragment (fragment C). Fragment N appears to be a general Mocker of apoptosis downstream of caspase activation. At higher levels of caspase activity, the ability of fragment N to counteract apoptosis is suppressed when it is further cleaved. This latter cleavage event generates two fragments, N1 and N2, which in contrast to fragment N potently sensitizes cancer cells toward DNA-damaging agents induced apoptosis. In the present study we show that a cell permeable peptide derived from the N2 fragment of RasGAP, thereafter called TAT-RasGAP317-326, specifically sensitizes cancer cells to three different genotoxins commonly used in chemotherapy in vitro and in vivo models. Importantly this peptide seems not to have any effect on non cancer cells. We have also started to characterize the molecular mechanisms underlying the sensitizing functions of TAT-RasGAP317-326. We have demonstrated that the p53 transcription factor and a protein under its transcriptional activity, called Puma, are required for the activity of TATRasGAP317-326. We have also showed that TAT-RasGAP317-326 requires the presence of a protein called G3BP1, which have been shown to interact with RasGAP, to increase the effect of the DNA-damaging drug cisplatin. The data obtained in this study showed that it is possible to increase the efficacy of current used chemotherapies with a compound able to increase the efficacy of genotoxins which could be beneficial for patients subjected to chemotherapy.
Resumo:
AbstractType 2 diabetes (T2D) is a metabolic disease which affects more than 200 millions people worldwide. The progression of this affection reaches nowadays epidemic proportions, owing to the constant augmentation in the frequency of overweight, obesity and sedentary. The pathogenesis of T2D is characterized by reduction in the action of insulin on its target tissues - an alteration referred as insulin resistance - and pancreatic β-cell dysfunction. This latter deterioration is defined by impairment in insulin biosynthesis and secretion, and a loss of β-cell mass by apoptosis. Environmental factors related to T2D, such as chronic elevation in glucose and free fatty acids levels, inflammatory cytokines and pro-atherogenic oxidized low- density lipoproteins (LDL), contribute to the loss of pancreatic β-cell function.In this study, we have demonstrated that the transcription factor Inducible Cyclic AMP Early Repressor (ICER) participates to the progression of both β-cell dysfunction and insulin resistance. The expression of this factor is driven by an alternative promoter and ICER protein represents therefore a truncated product of the Cyclic AMP Response Element Modulator (CREM) family which lacks transactivation domain. Consequently, the transcription factor ICER acts as a passive repressor which reduces expression of genes controlled by the cyclic AMP and Cyclic AMP Response Element Binding protein (CREB) pathway.In insulin-secreting cells, the accumulation of reactive oxygen species caused by environmental factors and notably oxidized LDL - a process known as oxidative stress - induces the transcription factor ICER. This transcriptional repressor hampers the secretory capacity of β-cells by silencing key genes of the exocytotic machinery. In addition, the factor ICER reduces the expression of the scaffold protein Islet Brain 1 (IB 1 ), thereby favouring the activation of the c-Jun N-terminal Kinase (JNK) pathway. This triggering alters in turn insulin biosynthesis and survival capacities of pancreatic β-cells.In the adipose tissue of mice and human subjects suffering from obesity, the transcription factor ICER contributes to the alteration in insulin action. The loss in ICER protein in these tissues induces a constant activation of the CREB pathway and the subsequent expression of the Activating Transcription Factor 3 (ATF3). In turn, this repressor reduces the transcript levels of the glucose transporter GLUT4 and the insulin-sensitizer peptide adiponectin, thereby contributing to the diminution in insulin action.In conclusion, these data shed light on the important role of the transcriptional repressor ICER in the pathogenesis of T2D, which contributes to both alteration in β-cell function and aggravation of insulin resistance. Consequently, a better understanding of the molecular mechanisms responsible for the alterations in ICER levels is required and could lead to develop new therapeutic strategies for the treatment of T2D.RésuméLe diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. La progression de cette affection atteint aujourd'hui des proportions épidémiques imputables à l'augmentation rapide dans les fréquences du surpoids, de l'obésité et de la sédentarité. La pathogenèse du DT2 se caractérise par une diminution de l'action de l'insuline sur ses tissus cibles - un processus nommé insulino-résistance - ainsi qu'une dysfonction des cellules β pancréatiques sécrétrices d'insuline. Cette dernière détérioration se définit par une réduction de la capacité de synthèse et de sécrétion de l'insuline et mène finalement à une perte de la masse de cellules β par apoptose. Des facteurs environnementaux fréquemment associés au DT2, tels l'élévation chronique des taux plasmatiques de glucose et d'acides gras libres, les cytokines pro-inflammatoires et les lipoprotéines de faible densité (LDL) oxydées, contribuent à la perte de fonction des cellules β pancréatiques.Dans cette étude, nous avons démontré que le facteur de transcription « Inducible Cyclic AMP Early Repressor » (ICER) participe à la progression de la dysfonction des cellules β pancréatiques et au développement de Pinsulino-résistance. Son expression étant gouvernée par un promoteur alternatif, la protéine d'ICER représente un produit tronqué de la famille des «Cyclic AMP Response Element Modulator » (CREM), sans domaine de transactivation. Par conséquent, le facteur ICER agit comme un répresseur passif qui réduit l'expression des gènes contrôlés par la voie de l'AMP cyclique et des « Cyclic AMP Response Element Binding protein » (CREB).Dans les cellules sécrétrices d'insuline, l'accumulation de radicaux d'oxygène libres, soutenue par les facteurs environnementaux et notamment les LDL oxydées - un processus appelé stress oxydatif- induit de manière ininterrompue le facteur de transcription ICER. Ainsi activé, ce répresseur transcriptionnel altère la capacité sécrétoire des cellules β en bloquant l'expression de gènes clés de la machinerie d'exocytose. En outre, le facteur ICER favorise l'activation de la cascade de signalisation « c-Jun N- terminal Kinase » (JNK) en réduisant l'expression de la protéine « Islet Brain 1 » (IB1), altérant ainsi les fonctions de biosynthèse de l'insuline et de survie des cellules β pancréatiques.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur de transcription ICER contribue à l'altération de la réponse à l'insuline. La disparition de la protéine ICER dans ces tissus entraîne une activation persistante de la voie de signalisation des CREB et une induction du facteur de transcription « Activating Transcription Factor 3 » (ATF3). A son tour, le répresseur ATF3 inhibe l'expression du transporteur de glucose GLUT4 et du peptide adipocytaire insulino-sensibilisateur adiponectine, contribuant ainsi à la diminution de l'action de l'insuline en conditions d'obésité.En conclusion, à la lumière de ces résultats, le répresseur transcriptionnel ICER apparaît comme un facteur important dans la pathogenèse du DT2, en participant à la perte de fonction des cellules β pancréatiques et à l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes moléculaires responsables de l'altération des niveaux du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.Résumé didactiqueL'énergie nécessaire au bon fonctionnement de l'organisme est fournie par l'alimentation, notamment sous forme de sucres (glucides). Ceux-ci sont dégradés en glucose, lequel sera distribué aux différents organes par la circulation sanguine. Après un repas, le niveau de glucose sanguin, nommé glycémie, s'élève et favorise la sécrétion d'une hormone appelée insuline par les cellules β du pancréas. L'insuline permet, à son tour, aux organes, tels le foie, les muscles et le tissu adipeux de capter et d'utiliser le glucose ; la glycémie retrouve ainsi son niveau basai.Le diabète de type 2 (DT2) est une maladie métabolique qui affecte plus de 200 millions de personnes dans le monde. Le développement de cette affection est causée par deux processus pathologiques. D'une part, les quantités d'insuline secrétée par les cellules β pancréatiques, ainsi que la survie de ces cellules sont réduites, un phénomène connu sous le nom de dysfonction des cellules β. D'autre part, la sensibilité des tissus à l'insuline se trouve diminuée. Cette dernière altération, l'insulino-résistance, empêche le transport et l'utilisation du glucose par les tissus et mène à une accumulation de ce sucre dans le sang. Cette stagnation de glucose dans le compartiment sanguin est appelée hyperglycémie et favorise l'apparition des complications secondaires du diabète, telles que les maladies cardiovasculaires, l'insuffisance rénale, la cécité et la perte de sensibilité des extrémités.Dans cette étude, nous avons démontré que le facteur ICER qui contrôle spécifiquement l'expression de certains gènes, contribue non seulement à la dysfonction des cellules β, mais aussi au développement de l'insulino-résistance. En effet, dans les cellules β pancréatiques en conditions diabétiques, l'activation du facteur ICER altère la capacité de synthèse et de sécrétion d'insuline et réduit la survie ces cellules.Dans le tissu adipeux des souris et des sujets humains souffrant d'obésité, le facteur ICER contribue à la perte de sensibilité à l'insuline. La disparition d'ICER altère l'expression de la protéine qui capte le glucose, le transoprteur GLUT4, et l'hormone adipocytaire favorisant la sensibilité à l'insuline, nommée adiponectine. Ainsi, la perte d'ICER participe à la réduction de la captation de glucose par le tissue adipeux et au développement de l'insulino-résistance au cours de l'obésité.En conclusion, à la lumière de ces résultats, le facteur ICER apparaît comme un contributeur important à la progression du DT2, en soutenant la dysfonction des cellules β pancréatiques et l'aggravation de l'insulino-résistance. Par conséquent, l'étude des mécanismes responsables de la dérégulation du facteur ICER pourrait permettre le développement de nouvelles stratégies de traitement du DT2.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
Objectif Le présent travail a consisté à identifier et comparer, au moyen d'un questionnaire auto-administré, les conditions ergonomiques, les nuisances environnementales et les facteurs de stress rencontrés par le personnel soignant (n = 35) et le personnel pénitentiaire (n = 240) travaillant dans les mêmes prisons. Quatre ans ont séparé la remise du questionnaire auprès des surveillants et des soignants, ce qui limite la portée des résultats. Malgré cela, la comparaison des données fournies montre des tendances intéressantes. Résultats Sur un plan ergonomique, les soignants rencontrent une plus faible pénibilité que les surveillants. Sur un plan environnemental, les soignants sont gênés par un nombre moins important de nuisances que les surveillants, ces derniers étant exposés à des conditions très diverses de travail (divisions de haute sécurité, ateliers de production, domaines agricoles). Par contre, concernant les facteurs de stress, les soignants éprouvent des tensions dans des proportions presque identiques aux surveillants, suite aux interventions d'urgences, à la surcharge de travail, aux relations avec les détenus et à la mauvaise ambiance au travail. En outre, les soignants et surveillants paraissent souffrir différemment d'éléments d'organisation tels que le sentiment de travailler sous pression, le manque d'écoute et le manque de considération. Enfin les soignants signalent un risque de violence plus élevé ainsi qu'un manque de reconnaissance plus important que les surveillants. Conclusion Les surveillants doivent continuer à faire l'objet d'un suivi attentif des services de santé au travail. En ce qui concerne les soignants, l'accent doit être mis sur l'amélioration de leur organisation interne de travail en approfondissant, entre autres, la question du manque de reconnaissance, le sentiment de travail sous pression, ainsi qu'en poursuivant les efforts sur la formation à la lutte contre la violence. [Auteurs]
Resumo:
Fait l'éloge d'une jeune chanteuse : "nous avons dans notre jeune amie une artiste, une musicienne et une voix charmante" et lui rappelle sa conception de l'art lyrique : "Sans doute la voix est un peu faible pour les grands effets de sonorité, puis encore mal remise d'une bronchite. Mais dans notre art, n'y a-t-il donc que la force? Le goût du style pur, l'amour de la belle musique, des accents d'une douceur extrême, une justesse admirable, une expression jamais au-dessous, jamais au-dessus de la vérité"