578 resultados para Méthodes de crible
Resumo:
Polyphosphate (iPOP) is a linear polymer of orthophosphate units linked together by high energy phosphoanhydride bonds. It is found in all organisms, localized in organelles called acidocalcisomes and ranges from a few to few hundred monomers in length. iPOP has been found to play a vast array of roles in all organisms, including phosphate and energy metabolism, regulation of enzymes, virulence, pathogenicity, bone remodelling and blood clotting, among many others. Recently it was found that iPOP levels were increased in myeloma cells. The growing interest in iPOP in human cell lines makes it an interesting molecule to study. However, not much is known about its metabolism in eukaryotes. Acidocalcisomes are electron dense, acidic organelles that belong to the group of Lysosome Related Organelles (LROs). The conservation of acidocalcisomes among all kingdoms of life is suggestive of their important roles for the organisms. However, they are difficult to analyse because of limited biochemical tools for investigation. Yeast vacuoles present remarkable similarities to acidocalcisomes in terms of their physiological and structural features, including synthesis and storage of iPOP, which make them an ideal candidate to study biological processes which are shared between vacuoles and acidocalcisomes. The availability of tools for genetic manipulation and isolation of vacuoles makes yeast a candidate of choice for the characterization of iPOP synthesis in eukaryotes. Our group has identified the Vacuolar Transporter Chaperone (VTC) complex as iPOP polymerase and identified the catalytic subunit (Vtc4). The goal of my study was to characterize the process of iPOP synthesis by isolated vacuoles and to reconstitute iPOP synthesis in liposomes. The first step was to develop a method for monitoring iPOP by isolated vacuoles over time and comparing it with previously known methods. Next, a detailed characterization was performed to determine the modulators of the process, both for intact as well as solubilized vacuoles. Finally, attempts were made to purify the VTC complex and reconstitute it in liposomes. A parallel line of study was the translocation and storage of synthesized iPOP in the lumen of the vacuoles. As a result of this study, it is possible to determine distinct pools of iPOP- inside and outside the vacuolar lumen. Additionally, I establish that the vacuolar lysate withstands harsh steps during reconstitution on liposomes and retains iPOP synthesizing activity. The next steps will be purification of the intact VTC complex and its structure determination by cryo-electron microscopy. - Les organismes vivants sont composés d'une ou plusieurs cellules responsables des processus biologiques élémentaires tels que la digestion, la respiration, la synthèse et la reproduction. Leur environnement interne est en équilibre et ils réalisent un très grand nombre de réactions chimiques et biochimiques pour maintenir cet équilibre. A différents compartiments cellulaires, ou organelles, sont attribuées des tâches spécifiques pour maintenir les cellules en vie. L'étude de ces fonctions permet une meilleure compréhension de la vie et des organismes vivants. De nombreux processus sont bien connus et caractérisés mais d'autres nécessitent encore des investigations détaillées. L'un de ces processus est le métabolisme des polyphosphates. Ces molécules sont des polymères linéaires de phosphate inorganique dont la taille peut varier de quelques dizaines à quelques centaines d'unités élémentaires. Ils sont présents dans tous les organismes, des bactéries à l'homme. Ils sont localisés principalement dans des compartiments cellulaires appelés acidocalcisomes, des organelles acides observés en microscopie électronique comme des structures denses aux électrons. Les polyphosphates jouent un rôle important dans le stockage et le métabolisme de l'énergie, la réponse au stress, la virulence, la pathogénicité et la résistance aux drogues. Chez l'homme, ils sont impliqués dans la coagulation du sang et le remodelage osseux. De nouvelles fonctions biologiques des polyphosphates sont encore découvertes, ce qui accroît l'intérêt des chercheurs pour ces molécules. Bien que des progrès considérables ont été réalisés afin de comprendre la fonction des polyphosphates chez les bactéries, ce qui concerne la synthèse, le stockage et la dégradation des polyphosphates chez les eucaryotes est mal connu. Les vacuoles de la levure Saccharomyces cerevisiae sont similaires aux acidocalcisomes des organismes supérieurs en termes de structure et de fonction. Les acidocalcisomes sont difficiles à étudier car il n'existe que peu d'outils génétiques et biochimiques qui permettent leur caractérisation. En revanche, les vacuoles peuvent être aisément isolées des cellules vivantes et manipulées génétiquement. Les vacuoles comme les acidocalcisomes synthétisent et stockent les polyphosphates. Ainsi, les découvertes faites grâce aux vacuoles de levures peuvent être extrapolées aux acidocalcisomes des organismes supérieurs. Le but de mon projet était de caractériser la synthèse des polyphosphates par des vacuoles isolées. Au cours de mon travail de thèse, j'ai mis au point une méthode de mesure de la synthèse des polyphosphates par des organelles purifés. Ensuite, j'ai identifié des composés qui modulent la réaction enzymatique lorsque celle-ci a lieu dans la vacuole ou après solubilisation de l'organelle. J'ai ainsi pu mettre en évidence deux groupes distincts de polyphosphates dans le système : ceux au-dehors de la vacuole et ceux en-dedans de l'organelle. Cette observation suggère donc très fortement que les vacuoles non seulement synthétisent les polyphosphates mais aussi transfère les molécules synthétisées de l'extérieur vers l'intérieur de l'organelle. Il est très vraisemblable que les vacuoles régulent le renouvellement des polyphosphates qu'elles conservent, en réponse à des signaux cellulaires. Des essais de purification de l'enzyme synthétisant les polyphosphates ainsi que sa reconstitution dans des liposomes ont également été entrepris. Ainsi, mon travail présente de nouveaux aspects de la synthèse des polyphosphates chez les eucaryotes et les résultats devraient encourager l'élucidation de mécanismes similaires chez les organismes supérieurs. - Les polyphosphates (iPOP) sont des polymères linéaires de phosphates inorganiques liés par des liaisons phosphoanhydres de haute énergie. Ces molécules sont présentes dans tous les organismes et localisées dans des compartiments cellulaires appelés acidocalcisomes. Elles varient en taille de quelques dizaines à quelques centaines d'unités phosphate. Des fonctions nombreuses et variées ont été attribuées aux iPOP dont un rôle dans les métabolismes de l'énergie et du phosphate, dans la régulation d'activités enzymatiques, la virulence, la pathogénicité, le remodelage osseux et la coagulation sanguine. Il a récemment été montré que les cellules de myélome contiennent une grande quantité de iPOP. Il y donc un intérêt croissant pour les iPOP dans les lignées cellulaires humaines. Cependant, très peu d'informations sur le métabolisme des iPOP chez les eucaryotes sont disponibles. Les acidocalcisomes sont des compartiments acides et denses aux électrons. Ils font partie du groupe des organelles similaires aux lysosomes (LROs pour Lysosome Related Organelles). Le fait que les acidocalcisomes soient conservés dans tous les règnes du vivant montrent l'importance de ces compartiments pour les organismes. Cependant, l'analyse de ces organelles est rendue difficile par l'existence d'un nombre limité d'outils biochimiques permettant leur caractérisation. Les vacuoles de levures possèdent des aspects structuraux et physiologiques très similaires à ceux des acidocalcisomes. Par exemple, ils synthétisent et gardent en réserve les iPOP. Ceci fait des vacuoles de levure un modèle idéal pour l'étude de processus biologiques conservés chez les vacuoles et les acidocalcisomes. De plus, la levure est un organisme de choix pour l'étude de la synthèse des iPOP compte-tenu de l'existence de nombreux outils génétiques et la possibilité d'isoler des vacuoles fonctionnelles. Notre groupe a identifié le complexe VTC (Vacuole transporter Chaperone) comme étant responsable de la synthèse des iPOP et la sous-unité Vtc4p comme celle possédant l'activité catalytique. L'objectif de cette étude était de caractériser le processus de synthèse des iPOP en utilisant des vacuoles isolées et de reconstituer la synthèse des iPOP dans des liposomes. La première étape a consisté en la mise au point d'un dosage permettant la mesure de la quantité de iPOP synthétisés par les organelles isolés en fonction du temps. Cette nouvelle méthode a été comparée aux méthodes décrites précédemment dans la littérature. Ensuite, la caractérisation détaillée du processus a permis d'identifier des composés modulateurs de la réaction à la fois pour des vacuoles intactes et des vacuoles solubilisées. Enfin, des essais de purification du complexe VTC et sa reconstitution dans des liposomes ont été entrepris. De façon parallèle, une étude sur la translocation et le stockage des iPOP dans le lumen des vacuoles a été menée. Il a ainsi été possible de mettre en évidence différents groupes de iPOP : les iPOP localisés à l'intérieur et ceux localisés à l'extérieur des vacuoles isolées. De plus, nous avons observé que le lysat vacuolaire n'est pas détérioré par les étapes de reconstitution dans les liposomes et conserve l'activité de synthèse des iPOP. Les prochaines étapes consisteront en la purification du complexe intact et de la détermination de sa structure par cryo-microscopie électronique.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
[Table des matières] Technology assessment in health care in the United States: an historical review / S. Perry. - The aims and methods of technology assessment / JH Glasser. - Evaluation des technologies de la santé / A. Griffiths. - Les données nécessaires pour l'évaluation des technologies médicales / R. Chrzanowski, F. Gutzwiller, F. Paccaud. - Economic issues in technology assessment/DR Lairson, JM Swint. - Two decades of experience in technology assessment: evaluating the safety, performance, and cost effectiveness of medical equipment / JJ Nobel. - Demography and technology assessment / H. Hansluwka. - Méthodes expérimentale et non expérimentale pour l'évaluation des innovations technologiques / R. Chrzanowski, F. Paccaud. - Skull radiography in head trauma: a successful case of technology assessment / NT Racoveanu. - Complications associées à l'anesthésie: une étude prospective en France / L. Tiret et al. - Impact de l'information publique sur les taux opératoires: le cas de l'hystérectomie / G. Domenighetti, P. Luraschi, A. Casabianca. - The clinical effectiveness of acupuncture for the relief of chronic pain / MS Patel, F. Gutzwiller, F. Paccaud, A. Marazzi. - Soins à domicile et hébergement à long terme: à la recherche d'un développement optimum / G. Tinturier. - Economic evaluation of six scenarios for the treatment of stones in the kidney and ureter by surgery or ESWL / MS Patel et al. - Technology assessment and medical practice / F. Gutzwiller. - Technology assessment and health policy / SJ Reiser. - Global programme on appropriate technology for health, its role and place within WHO / K. Staehr Johansen.
Resumo:
Résumé A Madagascar, comme dans plusieurs pays en développement, une grande partie de la population utilise les plantes pour se soigner. Plusieurs espèces des plantes sont ainsi utilisées en médecine traditionnelle malgache. Par ailleurs, la plupart de ces plantes ne font l'objet que de très peu d'étude scientifique. En effet, dans le cadre de l'investigation phytochimique de plantes utilisées en médecine traditionnelle malgache et dans la recherche des nouvelles substances biologiquement actives, Hypoestes serpens (Vahl) R. Br. (Acanthaceae) a été étudiée. Elle se présente sous deux variétés (glabre et poilue) qui sont tous utilisées dans la région sud-centre de Madagascar pour traiter la blennorragie. De l'extrait dichlorométhanique des feuilles de H. serpens (Vahl) R. Br. variété glabre, 12 diterpénoides dont 8 nouveaux ont été isolés. Ils ont tous montré une activité antifongique contre un champignon pathogène des plantes, Cladosporium cucumerinum, dans la bioautographie directe sur CCM. Quelques-uns ont également présenté une activité contre une levure saprophyte chez l'homme, Candida albicans et une activité inhibitrice de l'enzyme acétylcholinesterase. Les diterpènoïdes sont déjà considérés comme les principaux métabolites secondaires du genre Hypoestes. Le fractionnement de l'extrait méthanolique a conduit à l'isolement de 5 glycosides des flavonoïdes dont 4 sous formes C-g,lycosides qui n'ont jamais été identifiés dans la famille Acanthaceae. Ces flavonoïdes ont présenté une activité antiradicalaire contre le DPPH. Le fractionnement et la purification des extraits ont été effectués à l'aide des différentes techniques chromatographiques telles que la chromatographie sur colonne ouverte, la filtration sur gel, la chromatographie liquide à haute pression, la chromatographie liquide à moyenne pression et la chromatographie liquide à basse pression. Par ailleurs, les structures des composés isolés ont été élucidées par des techniques spectroscopiques (UV, MS, RMN) et de méthode chimique (hydrolyse acide). En plus de ces techniques, certaines méthodes physiques (cristallographie par rayons-X, mesure de rotation optique) ont été réalisées pour confirmer certaines structures. Comme l'espèce Hypoestes serpens (Vahl) R. Br. se présente en deux variétés, une étude comparative a été effectuée. Cette étude avait montré que ces deux variétés ont une activité biologique similaire. Finalement, une technique analytique couplée, HPLC-UV-APC1-MS a permis de montrer la présence de toutes les substances isolées de la variété glabre dans la variété poilue. Second résumé Depuis des milliers d'almées, l'homme utilise les plantes pour se soigner. De nos jours, même avec le développement de la médecine moderne, la phytothérapie reste toujours la forme des soins de santé abordable et accessible pour la majorité des populations rurales des pays en développement. En outre, les plantes médicinales constituent une source potentielle de molécules biologiquement actives pour les industries pharmaceutiques et actuellement, on estime que 25% des médicaments commercialisés dans le monde sont à base de plantes Dans le cadre de la recherche des nouvelles molécules à intérêt thérapeutique qui pourraient devenir un médicament ou un modèle de structure ("lead compound") pour le développement de nouveaux médicaments, nous avons fait une étude sur l'espèce, Hypoestes serpens (Vahl) R. Br, plante utilisée en médecine traditionnelle malgache. Cette espèce existe en deux variétés, une glabre et une autre poilue qui sont tous utilisées dans la région sud-centre de Madagascar pour traiter la blennorragie. Par ailleurs, les tradipraticiens utilisent de préférence la variété poilue. Dans la première partie de ce présent travail, une investigation phytochimique de H serpens, variété glabre (variété moins utilisée) a d'abord été effectuée afm d'isoler et d'identifier le maximum des molécules biologiquement actives qu'elle contient. De ce fait, 17 composés dont 8 nouveaux ont été isolés. Les potentiels d'activités thérapeutiques des substances isolées ont ensuite été dépistés sur les différents cibles suivants.: deux souches de champignons (Cladosporium cucumerinum et Candida albicans), l'enzyme acétylcholinesterase et le radical DPPH. La deuxième partie de ce travail a été consacrée sur l'étude comparative des deux variétés (glabre et poilue) de H. serpens à la fois sur le plan biologique et sur le plan phytochimique. A l'issue de cette comparaison, nous avons constaté que l'utilisation de ces deux variétés en médecine traditionnelle malgache n'est pas un hasard ; les deux variétés avaient présenté une activité biologique très remarquable et contiennent les mêmes substances actives. Ces résultats démontrent les potentiels thérapeutiques de H serpens en médecine traditionnelle malgache et pourraient également encourager les tradipraticiens à utiliser la variété glabre tout en protégeant la variété poilue qui est en voie de disparition actuellement. En bref, l'investigation phytochimique de H. serpens justifiée par l'isolement et l'identification de certains de ses principes actifs ouvre la voie aux recherches des médicaments d'origine naturelle. Abstract In Madagascar, as in many developing countries, most people use plants to cure. A large number of plant species are employed in Malagasy traditional medicine. Moreover, most of these plants have been subject only very little scientific study. As part of a phytochemical investigation of plants used in Malagasy traditional medicine and in the search for new biologically active substances, Hypoestes serpens (Vah1) R.Br. (Acanthaceae) was investigated. This species exists in two varieties (glabrous and hairy) which are used in the south-center part of Madagascar to treat gonorrhoea. From the dichloromethane extract of the leaves of H. serpens (Vah1) R. Br. glabrous variety, 12 diterpenoids 8 of which were new, were isolated. They showed antifungal activity against the plant pathogen Cladosporium cucumerinum, in the direct TLC bioautography. Some of them also had activity against the yeast Candida athicans and inhibited acetylcholinesterase. The diterpenes are considered as the principal secondary metabolites of the genus Hypoestes. Fractionation of the methanol extract led to the isolation of 5 flavonoid glycosides, 4 of which were C-glycosides, never before identified in the Acanthaceae family. These flavonoids showed radical scavenging activity against DPPH. The fractionation and the purification of the extracts were achieved by different chromatographic techniques such as open-column chromatography, gel filtration, high- pressure liquid chromatography, medium-pressure liquid chromatography and low-pressure liquid chromatography. Moreover, the structures of the isolated compounds were elucidated by spectroscopic techniques (UV, MS, NMR) and chemical technique (acid hydrolysis). In addition, some physical methods (X-ray crystallography, measurement of optical rotation) were performed to confirm some structures. As the species Hypoestes serpens (Vah1) R. Br. is present in two varieties, a comparative study was carried out. This study showed that these two varieties had similar biological activity. Finally, a coupled analytical technique HPLC-UV-APCI-MS showed the presence of the same compounds in both the glabrous and hairy varieties.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Le but de ce travail doctoral était le développement de méthodes analytiques pour la détermination dethyl glucuronide et dethyl sulfate. Ces deux substances sont des métabolites directs de lethanol qui peuvent être détectées pendant des heures jusqu'à des jours dans des fluides corporels, après que léthanol ait été complètement éliminé du corps humain. Ce sont donc des marqueurs de consommation récente d'alcool.La majorité des expériences ont été effectuées en utilisant l'électrophorèse capillaire. Il était envisagé de fournir des méthodes utilisables dans des laboratoires de routine. Des méthodes électrophorétiques ont été développées et optimisées pour la détermination dethyl sulfate dans le sérum et l'urine ainsi que pour lethyl glucuronide dans le sérum. Lethyl glucuronide urinaire a pu être déterminé par un immunoassay commerciale qui a en plus été adapté avec succès pour des échantillons de sérum. Avec toutes ces méthodes d'analyse il était possible d'observer les deux marqueurs de consommation d'alcool récente, même une consommation aussi basse qu'un verre de boissons alcooliques.Finalement, une étude englobant plus de 100 échantillons aété effectuée avec l'ambition de déterminer les valeurs de référence pour lethyl glucuronide dans le sérum et l'urine. De plus, la nécessité de normaliser les échantillons d'urine par rapport à la dilution a été investiguée. Grâce à cette étude des valeurs de cut-off et une base statistique pour l'interprétation probabiliste ont pu être proposées.
Resumo:
Résumé: Objectifs: Cette étude relève la prévalence des principaux facteurs de risque cardiovasculaire dans les coronaropathies précoces (P-CAD) familiales, survenant chez au moins deux frères et/ou soeurs d'une même fratrie. Méthodes: Nous avons recruté 213 survivants atteints de P-CAD, issus de 103 fratries, diagnostiqués avant l'âge de 50 ans chez les hommes et 55 ans chez les femmes. La présence ou non d'hypertension, d'hypercholestérolémie, d'obésité et de tabagisme a été documentée au moment de l'événement chez 163 de ces patients (145 hommes et 18 femmes). Chaque patient a été comparé à deux individus de même âge et sexe, chez qui un diagnostic de P-CAD «sporadique» (non familiale) était posé, et à trois individus choisis au hasard parmi la population générale. Résultats: En comparaison de la population générale, les patients atteints de P-CAD sporadique avaient une prévalence supérieure pour 1 'hypertension (29% vs. 14%, p<0.001), le cholestérol (54% vs. 33%, p<0.001), l'obésité (20% vs. 13%, p<0.001) et le tabagisme (76% vs. 39%, p<0.001). Ces facteurs de risque étaient de prévalences similaires, voire supérieures chez les patients atteints de P-CAD familiale (43% [p<0.05 vs. P-CAD sporadiques], 58% [p=0.07], 21% et 72%) respectivement). Seulement 7 (4%) des 163 patients atteints de P-CAD familiale et 22 (7%) des 326 patients atteints de P-CAD sporadique, ne présentaient aucun facteur de risque cardiovasculaire, comparés à 167 (34%) des 489 patients issus de la population générale. Conclusions: Les facteurs de risque cardiovasculaire classiques et réversibles ont une haute prévalence chez les patients atteints de P-CAD familiale. Ce fait rend improbable une contribution génétique prédominante, agissant en l'absence de facteurs de risque. Abstract: Objectives: This study was designed to assess the prevalence of major cardiovascular risk factors in familial premature coronary artery disease (P-CAD), affecting two or more siblings within one sibship. Background: Premature CAD has a genetic component. It remains to be established whether familial P-CAD is due to genes acting independently from major cardiovascular risk factors. Methods: We recruited 213 P-CAD survivors from 103 sibships diagnosed before age ?50 (men) or ?55 (women) years old. Hypertension, hypercholesterolemia, obesity, and smoking were documented at the time of the event in 163 patients (145 men and 18 women). Each patient was compared with two individuals of the same age and gender, diagnosed with sporadic (nonfamilial) P-CAD, and three individuals randomly sampled from the general population. Results: Compared with the general population, patients with sporadic P-CAD had a higher prevalence of hypertension (29% vs. 14%, p < 0.001), hypercholesterolemia (54% vs. 33%, p < 0.001), obesity (20% vs. 13%, p < 0.001), and smoking (76% vs. 39%, p < 0.001). These risk factors were equally or even more prevalent in patients with familial P-CAD (43% [p < 0.05 vs. sporadic P-CAD], 58% [p = 0.07], 21% and 72%, respectively). Overall, only 7 (4%) of 163 of patients with familial P-CAD and 22 (7%) of 326 of patients with sporadic P-CAD had none of these conditions, as compared with 167 (34%) of 489 patients in the general population. Conclusions: Classic, remediable risk factors are highly prevalent in patients with familial P-CAD. Accordingly, a major contribution of genes acting in the absence of these risk factors is unlikely
Resumo:
Messages à retenir: Le scanner peut aider au diagnostic et la caractérisation des valvulopathies et des lésions associées (aorte, coronaires). Le scanner est un examen incontournable pour l'évaluation pré-thérapeutique des procédures TAVI (transfémorale ou transapicale). Le scanner peut être utile pour caractériser les insuffisances aortiques. Grâce aux développements récents dans les thérapies peu invasives et au progrès du CT, le rôle du radiologue est redevenu central dans la prise en charge de certaines valvulopathies aortiques. Résumé: Les valvulopathies aortiques sont des maladies fréquentes. Leur exploration repose largement sur l'échocardiographie et sur l'IRM. Les progrès technologiques en scanner cardiaque ont permis à ce dernier d'explorer la valve aortique et ses pathologies. Ce cours est principalement consacré aux méthodes d'acquisition et de traitement des images dédiées à l'exploration de la valve aortique (plan de coupes, planimétrie, scores...). Une attention particulière est réservée aux considérations anatomiques spécifiques à celle-ci (variantes anatomiques). Les indications du scanner cardiaque dans les valvulopathies seront résumées (sténoses, insuffisances, pathologie tumorale et pathologies inflammatoires). Dans la sténose de la valve, outre ses performances diagnostiques, le scanner plus ou moins couplé à l'exploration des vaisseaux périphériques, est devenu une méthode intournable dans le bilan pré-thérapeutique. La connaissance des paramètres à évaluer (taille de l'anneau, position des coronaires, orientation du plan de la valve...) et la standardisation des mesures sont un élément clé pour une prise en charge optimale. Dans les insuffisances aortiques, les méthodes de quantification (planimétrie) peuvent être utilisées pour les caractériser avec des performances comparables à celles obtenues par d'autres techniques.
Resumo:
Abstract: The expansion of a recovering population - whether re-introduced or spontaneously returning - is shaped by (i) biological (intrinsic) factors such as the land tenure system or dispersal, (ii) the distribution and availability of resources (e.g. prey), (iii) habitat and landscape features, and (iv) human attitudes and activities. In order to develop efficient conservation and recovery strategies, we need to understand all these factors and to predict the potential distribution and explore ways to reach it. An increased number of lynx in the north-western Swiss Alps in the nineties lead to a new controversy about the return of this cat. When the large carnivores were given legal protection in many European countries, most organizations and individuals promoting their protection did not foresee the consequences. Management plans describing how to handle conflicts with large predators are needed to find a balance between "overabundance" and extinction. Wildlife and conservation biologists need to evaluate the various threats confronting populations so that adequate management decisions can be taken. I developed a GIS probability model for the lynx, based on habitat information and radio-telemetry data from the Swiss Jura Mountains, in order to predict the potential distribution of the lynx in this mountain range, which is presently only partly occupied by lynx. Three of the 18 variables tested for each square kilometre describing land use, vegetation, and topography, qualified to predict the probability of lynx presence. The resulting map was evaluated with data from dispersing subadult lynx. Young lynx that were not able to establish home ranges in what was identified as good lynx habitat did not survive their first year of independence, whereas the only one that died in good lynx habitat was illegally killed. Radio-telemetry fixes are often used as input data to calibrate habitat models. Radio-telemetry is the only way to gather accurate and unbiased data on habitat use of elusive larger terrestrial mammals. However, it is time consuming and expensive, and can therefore only be applied in limited areas. Habitat models extrapolated over large areas can in turn be problematic, as habitat characteristics and availability may change from one area to the other. I analysed the predictive power of Ecological Niche Factor Analysis (ENFA) in Switzerland with the lynx as focal species. According to my results, the optimal sampling strategy to predict species distribution in an Alpine area lacking available data would be to pool presence cells from contrasted regions (Jura Mountains, Alps), whereas in regions with a low ecological variance (Jura Mountains), only local presence cells should be used for the calibration of the model. Dispersal influences the dynamics and persistence of populations, the distribution and abundance of species, and gives the communities and ecosystems their characteristic texture in space and time. Between 1988 and 2001, the spatio-temporal behaviour of subadult Eurasian lynx in two re-introduced populations in Switzerland was studied, based on 39 juvenile lynx of which 24 were radio-tagged to understand the factors influencing dispersal. Subadults become independent from their mothers at the age of 8-11 months. No sex bias neither in the dispersal rate nor in the distance moved was detected. Lynx are conservative dispersers, compared to bear and wolf, and settled within or close to known lynx occurrences. Dispersal distances reached in the high lynx density population - shorter than those reported in other Eurasian lynx studies - are limited by habitat restriction hindering connections with neighbouring metapopulations. I postulated that high lynx density would lead to an expansion of the population and validated my predictions with data from the north-western Swiss Alps where about 1995 a strong increase in lynx abundance took place. The general hypothesis that high population density will foster the expansion of the population was not confirmed. This has consequences for the re-introduction and recovery of carnivores in a fragmented landscape. To establish a strong source population in one place might not be an optimal strategy. Rather, population nuclei should be founded in several neighbouring patches. Exchange between established neighbouring subpopulations will later on take place, as adult lynx show a higher propensity to cross barriers than subadults. To estimate the potential population size of the lynx in the Jura Mountains and to assess possible corridors between this population and adjacent areas, I adapted a habitat probability model for lynx distribution in the Jura Mountains with new environmental data and extrapolated it over the entire mountain range. The model predicts a breeding population ranging from 74-101 individuals and from 51-79 individuals when continuous habitat patches < 50 km2 are disregarded. The Jura Mountains could once be part of a metapopulation, as potential corridors exist to the adjoining areas (Alps, Vosges Mountains, and Black Forest). Monitoring of the population size, spatial expansion, and the genetic surveillance in the Jura Mountains must be continued, as the status of the population is still critical. ENFA was used to predict the potential distribution of lynx in the Alps. The resulting model divided the Alps into 37 suitable habitat patches ranging from 50 to 18,711 km2, covering a total area of about 93,600 km2. When using the range of lynx densities found in field studies in Switzerland, the Alps could host a population of 961 to 1,827 residents. The results of the cost-distance analysis revealed that all patches were within the reach of dispersing lynx, as the connection costs were in the range of dispersal cost of radio-tagged subadult lynx moving through unfavorable habitat. Thus, the whole Alps could once be considered as a metapopulation. But experience suggests that only few disperser will cross unsuitable areas and barriers. This low migration rate may seldom allow the spontaneous foundation of new populations in unsettled areas. As an alternative to natural dispersal, artificial transfer of individuals across the barriers should be considered. Wildlife biologists can play a crucial role in developing adaptive management experiments to help managers learning by trial. The case of the lynx in Switzerland is a good example of a fruitful cooperation between wildlife biologists, managers, decision makers and politician in an adaptive management process. This cooperation resulted in a Lynx Management Plan which was implemented in 2000 and updated in 2004 to give the cantons directives on how to handle lynx-related problems. This plan was put into practice e.g. in regard to translocation of lynx into unsettled areas. Résumé: L'expansion d'une population en phase de recolonisation, qu'elle soit issue de réintroductions ou d'un retour naturel dépend 1) de facteurs biologiques tels que le système social et le mode de dispersion, 2) de la distribution et la disponibilité des ressources (proies), 3) de l'habitat et des éléments du paysage, 4) de l'acceptation de l'espèce par la population locale et des activités humaines. Afin de pouvoir développer des stratégies efficaces de conservation et de favoriser la recolonisation, chacun de ces facteurs doit être pris en compte. En plus, la distribution potentielle de l'espèce doit pouvoir être déterminée et enfin, toutes les possibilités pour atteindre les objectifs, examinées. La phase de haute densité que la population de lynx a connue dans les années nonante dans le nord-ouest des Alpes suisses a donné lieu à une controverse assez vive. La protection du lynx dans de nombreux pays européens, promue par différentes organisations, a entraîné des conséquences inattendues; ces dernières montrent que tout plan de gestion doit impérativement indiquer des pistes quant à la manière de gérer les conflits, tout en trouvant un équilibre entre l'extinction et la surabondance de l'espèce. Les biologistes de la conservation et de la faune sauvage doivent pour cela évaluer les différents risques encourus par les populations de lynx, afin de pouvoir rapidement prendre les meilleuresmdécisions de gestion. Un modèle d'habitat pour le lynx, basé sur des caractéristiques de l'habitat et des données radio télémétriques collectées dans la chaîne du Jura, a été élaboré afin de prédire la distribution potentielle dans cette région, qui n'est que partiellement occupée par l'espèce. Trois des 18 variables testées, décrivant pour chaque kilomètre carré l'utilisation du sol, la végétation ainsi que la topographie, ont été retenues pour déterminer la probabilité de présence du lynx. La carte qui en résulte a été comparée aux données télémétriques de lynx subadultes en phase de dispersion. Les jeunes qui n'ont pas pu établir leur domaine vital dans l'habitat favorable prédit par le modèle n'ont pas survécu leur première année d'indépendance alors que le seul individu qui est mort dans l'habitat favorable a été braconné. Les données radio-télémétriques sont souvent utilisées pour l'étalonnage de modèles d'habitat. C'est un des seuls moyens à disposition qui permette de récolter des données non biaisées et précises sur l'occupation de l'habitat par des mammifères terrestres aux moeurs discrètes. Mais ces méthodes de- mandent un important investissement en moyens financiers et en temps et peuvent, de ce fait, n'être appliquées qu'à des zones limitées. Les modèles d'habitat sont ainsi souvent extrapolés à de grandes surfaces malgré le risque d'imprécision, qui résulte des variations des caractéristiques et de la disponibilité de l'habitat d'une zone à l'autre. Le pouvoir de prédiction de l'Analyse Ecologique de la Niche (AEN) dans les zones où les données de présence n'ont pas été prises en compte dans le calibrage du modèle a été analysée dans le cas du lynx en Suisse. D'après les résultats obtenus, la meilleure mé- thode pour prédire la distribution du lynx dans une zone alpine dépourvue d'indices de présence est de combiner des données provenant de régions contrastées (Alpes, Jura). Par contre, seules les données sur la présence locale de l'espèce doivent être utilisées pour les zones présentant une faible variance écologique tel que le Jura. La dispersion influence la dynamique et la stabilité des populations, la distribution et l'abondance des espèces et détermine les caractéristiques spatiales et temporelles des communautés vivantes et des écosystèmes. Entre 1988 et 2001, le comportement spatio-temporel de lynx eurasiens subadultes de deux populations réintroduites en Suisse a été étudié, basé sur le suivi de 39 individus juvéniles dont 24 étaient munis d'un collier émetteur, afin de déterminer les facteurs qui influencent la dispersion. Les subadultes se sont séparés de leur mère à l'âge de 8 à 11 mois. Le sexe n'a pas eu d'influence sur le nombre d'individus ayant dispersés et la distance parcourue au cours de la dispersion. Comparé à l'ours et au loup, le lynx reste très modéré dans ses mouvements de dispersion. Tous les individus ayant dispersés se sont établis à proximité ou dans des zones déjà occupées par des lynx. Les distances parcourues lors de la dispersion ont été plus courtes pour la population en phase de haute densité que celles relevées par les autres études de dispersion du lynx eurasien. Les zones d'habitat peu favorables et les barrières qui interrompent la connectivité entre les populations sont les principales entraves aux déplacements, lors de la dispersion. Dans un premier temps, nous avons fait l'hypothèse que les phases de haute densité favorisaient l'expansion des populations. Mais cette hypothèse a été infirmée par les résultats issus du suivi des lynx réalisé dans le nord-ouest des Alpes, où la population connaissait une phase de haute densité depuis 1995. Ce constat est important pour la conservation d'une population de carnivores dans un habitat fragmenté. Ainsi, instaurer une forte population source à un seul endroit n'est pas forcément la stratégie la plus judicieuse. Il est préférable d'établir des noyaux de populations dans des régions voisines où l'habitat est favorable. Des échanges entre des populations avoisinantes pourront avoir lieu par la suite car les lynx adultes sont plus enclins à franchir les barrières qui entravent leurs déplacements que les individus subadultes. Afin d'estimer la taille de la population de lynx dans le Jura et de déterminer les corridors potentiels entre cette région et les zones avoisinantes, un modèle d'habitat a été utilisé, basé sur un nouveau jeu de variables environnementales et extrapolé à l'ensemble du Jura. Le modèle prédit une population reproductrice de 74 à 101 individus et de 51 à 79 individus lorsque les surfaces d'habitat d'un seul tenant de moins de 50 km2 sont soustraites. Comme des corridors potentiels existent effectivement entre le Jura et les régions avoisinantes (Alpes, Vosges, et Forêt Noire), le Jura pourrait faire partie à l'avenir d'une métapopulation, lorsque les zones avoisinantes seront colonisées par l'espèce. La surveillance de la taille de la population, de son expansion spatiale et de sa structure génétique doit être maintenue car le statut de cette population est encore critique. L'AEN a également été utilisée pour prédire l'habitat favorable du lynx dans les Alpes. Le modèle qui en résulte divise les Alpes en 37 sous-unités d'habitat favorable dont la surface varie de 50 à 18'711 km2, pour une superficie totale de 93'600 km2. En utilisant le spectre des densités observées dans les études radio-télémétriques effectuées en Suisse, les Alpes pourraient accueillir une population de lynx résidents variant de 961 à 1'827 individus. Les résultats des analyses de connectivité montrent que les sous-unités d'habitat favorable se situent à des distances telles que le coût de la dispersion pour l'espèce est admissible. L'ensemble des Alpes pourrait donc un jour former une métapopulation. Mais l'expérience montre que très peu d'individus traverseront des habitats peu favorables et des barrières au cours de leur dispersion. Ce faible taux de migration rendra difficile toute nouvelle implantation de populations dans des zones inoccupées. Une solution alternative existe cependant : transférer artificiellement des individus d'une zone à l'autre. Les biologistes spécialistes de la faune sauvage peuvent jouer un rôle important et complémentaire pour les gestionnaires de la faune, en les aidant à mener des expériences de gestion par essai. Le cas du lynx en Suisse est un bel exemple d'une collaboration fructueuse entre biologistes de la faune sauvage, gestionnaires, organes décisionnaires et politiciens. Cette coopération a permis l'élaboration du Concept Lynx Suisse qui est entré en vigueur en 2000 et remis à jour en 2004. Ce plan donne des directives aux cantons pour appréhender la problématique du lynx. Il y a déjà eu des applications concrètes sur le terrain, notamment par des translocations d'individus dans des zones encore inoccupées.
Resumo:
Avant même d'entamer ma recherche de sujet pour le travail de maîtrise, j'avais déjà une certitude: je souhaitais choisir un thème qui m'intéressait, certes, mais surtout qui arriverait à me passionner, de façon à pouvoir y mettre toute mon énergie. Le choix initial de m'orienter vers ma future spécialité, la psychiatrie, s'est vite confirmé, et un rayon de l'IUMG en particulier a très rapidement attiré ma curiosité: celui de l'ethnopsychiatrie. Pour le choix du thème de ce travail, mon expérience de vie, suite à un mariage mixte, et mon inté- rêt pour les migrants, ont compté, ainsi que les nombreux stages effectués en milieux multicultu- rels et ma probable future orientation en psychiatrie systémique. Face à l'augmentation de la migration et des déplacements des populations et des individus ainsi qu'aux mélanges interculturels qui en résultent, les recherches transculturelles connaissent, depuis quelques années, un développement important: ceci est valable en psychiatrie, en psychopathologie comme en psychothérapie. Pendant mes stages, j'ai remarqué que l'accueil et la prise en charge des personnes étrangères sont une possibilité, pour les professionnels issus de tous les domaines, que ce soit d'un milieu médico- psychologique, social ou éducatif, de remettre en cause les méthodes théoriques et techniques habi- tuelles. En effet, dès que l'on est amené à s'occuper de personnes d'une culture différente de la nô- tre, une partie de nos théories, de notre manière d'intervention clinique et de nos principes de for- mation se trouve forcément remise en question. Le choix de mieux connaître et proposer cette nouvelle discipline par un travail de master s'est basé également en fonction de l'ampleur du parcours historique que l'ethnopsychiatrie nous permettait d'explorer. Par mon travail, j'ai donc essayé de retracer le parcours socio-historique de l'ethnopsychiatrie de- puis ses origines. Cela n'a pas été facile car, même si théoriquement cette discipline s'est dévelop- pée aux alentours du début du XXe siècle, entre l'Europe et les lieux où l'Occident élargissait son domaine, il n y a pas unanimité sur un fondateur précis. Cependant, à plusieurs reprises, Emil Kraepelin est cité comme le fondateur de cette discipline, et c'est pour cette raison que j'ai décidé de focaliser mon attention sur ce grand psychiatre, pour es- sayer de comprendre pourquoi plusieurs auteurs le considèrent comme le père de l'ethnopsychia- trie. Pour ce faire, dans une première partie, ma recherche a donc consisté en une revue de la littérature médicale spécialisée. 4 Je me suis basée tout d'abord sur des sources primaires, en cherchant des articles écrits par Kraepe- lin lui-même, consultant principalement les revues germanophones et anglo-saxonnes susceptibles d'avoir publié ses articles. J'ai également consulté un choix de traités de psychiatrie qu'il a publié. Dans la deuxième partie de mes recherches, j'ai passé en revue la littérature secondaire, en me ba- sant sur des articles qui ont été écrits sur lui par différents auteurs, psychiatres et historiens. La thè- se du Dr. Christoph Bendick a été utilisée en particulier: «Emil Kraepelin's Forschungsreise nach Java», a été un outil précieux pour retrouver aussi bien des récits primaires inédits du psychiatre que maintes sources de littérature secondaire. En analysant cette littérature, j'ai essayé de dégager les principaux thèmes d'évolution entre le XIXe et le XXe siècle, en cherchant en parallèle d'éventuelles répercussions des travaux de psy- chiatrie comparée du médecin allemand sur la postérité, ainsi que sur la psychiatrie moderne. En progressant dans mon travail, je me suis pertinemment posé la question suivante: Kraepelin était-il vraiment le premier qui se fut intéressé à une psychiatrie « exotique » ou, au contraire, l'ambition de comparer la folie occidentale à des peuples et civilisations étrangers avait-elle déjà commencé bien avant lui ? Aurait-il apporté quelque chose de différent dans sa recherche, qui nous permettrait aujourd'hui de lui attribuer le statut de fondateur de l'ethnopsychiatrie ? Afin d'essayer de répondre à cette réflexion, ma méthodologie a consisté en un dépouillement d'une célèbre revue de psychiatrie française, Les annales médico-psychologiques, depuis le premier numéro paru en 1843 jusqu'à l'aube de la deuxième guerre mondiale, à la recherche d'articles trai- tant de la folie exotique. Pour accomplir cette tâche, un article de R. Collignon, psychologue-anthropologue travaillant sur l'histoire de la psychiatrie en Afrique, m'a été d'une aide très précieuse. Ce texte, paru dans la re- vue Psychopathologie Africaine, qui répertorie tous les articles traitants de la psychiatrie coloniale, m'a évité de devoir analyser personnellement toute la collection des A.M.P., ce qui a permis un gain de temps considérable. Une analyse approfondie de cette littérature m'a permis de me forger une idée sur la question et de dégager en même temps, dans la troisième partie du travail, les principaux thèmes d'évolution en ethnopsychiatrie entre le XIXe et le XXe siècle. Finalement, en disséquant les théories d'un autre auteur qui s'est passionné pour l'ethnopsychiatrie, le psychanalyste Georges Devereux, considéré également comme le fondateur de cette discipline, j'ai essayé de comprendre les changements qui se sont opérés dans ce domaine pendant la période qui les sépare. Un regard particulier a été porté sur les possibles répercussions de l'ancienne eth- nopsychiatrie, de connotation coloniale, sur une ethnopsychiatrie plus «moderne», laquelle, suite aux travaux de Devereux, a évolué depuis quelques années surtout dans les domaines des études de la migration et de l'intégration. 5 Cette ethnopsychiatrie contemporaine inclut aujourd'hui des phénomènes uniques attribués à une origine culturelle qui, depuis 1995, sont regroupés dans le DSM IV sous le nom de Culture-Bound Syndromes. Ce travail de master esquisse donc un double mouvement: Europe-Occident, Occident-Europe. Sur ce chemin, aux alentours de 1900, sont posés les premières grandes lignes et récits d'une ethnopsy- chiatrie, née en un premier temps entre l'Europe et ses colonies et ensuite entre l'Europe et le reste du monde.
Resumo:
Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.
Resumo:
Résumé -Caractéristiques architecturales des génomes bactériens et leurs applications Les bactéries possèdent généralement un seul chromosome circulaire. A chaque génération, ce chromosome est répliqué bidirectionnellement, par deux complexes enzymatiques de réplication se déplaçant en sens opposé depuis l'origine de réplication jusqu'au terminus, situé à l'opposé. Ce mode de réplication régit l'architecture du chromosome -l'orientation des gènes par rapport à la réplication, notamment - et est en grande partie à l'origine des pressions qui provoquent la variation de la composition en nucléotides du génome, hors des contraintes liées à la structure et à la fonction des protéines codées sur le chromosome. Le but de cette thèse est de contribuer à quantifier les effets de la réplication sur l'architecture chromosomique, en s'intéressant notamment aux gènes des ARN ribosomiques, cruciaux pour la bactérie. D'un autre côté, cette architecture est spécifique à l'espèce et donne ainsi une «identité génomique » aux gènes. Il est démontré ici qu'il est possible d'utiliser des marqueurs «naïfs » de cette identité pour détecter, notamment dans le génome du staphylocoque doré, des îlots de pathogénicité, qui concentrent un grand nombre de facteurs de virulence de la bactérie. Ces îlots de pathogénicité sont mobiles, et peuvent passer d'une bactérie à une autre, mais conservent durant un certain temps l'identité génomique de leur hôte précédent, ce qui permet de les reconnaître dans leur nouvel hôte. Ces méthodes simples, rapides et fiables seront de la plus haute importance lorsque le séquençage des génomes entiers sera rapide et disponible à très faible coût. Il sera alors possible d'analyser instantanément les déterminants pathogéniques et de résistance aux antibiotiques des agents pathogènes. Summary The bacterial genome is a highly organized structure, which may be referred to as the genome architecture, and is mainly directed by DNA replication. This thesis provides significant insights in the comprehension of the forces that shape bacterial chromosomes, different in each genome and contributing to confer them an identity. First, it shows the importance of the replication in directing the orientation of prokaryotic ribosomal RNAs, and how it shapes their nucleotide composition in a tax on-specific manner. Second, it highlights the pressure acting on the orientation of the genes in general, a majority of which are transcribed in the same direction as replication. Consequently, apparent infra-arm genome rearrangements, involving an exchange of the leading/lagging strands and shown to reduce growth rate, are very likely artifacts due to an incorrect contig assembly. Third, it shows that this genomic identity can be used to detect foreign parts in genomes, by establishing this identity for a given host and identifying the regions that deviate from it. This property is notably illustrated with Staphylococcus aureus: known pathogenicity islands and phages, and putative ancient pathogenicity islands concentrating many known pathogenicity-related genes are highlighted; the analysis also detects, incidentally, proteins responsible for the adhesion of S. aureus to the hosts' cells. In conclusion, the study of nucleotide composition of bacterial genomes provides the opportunity to better understand the genome-level pressures that shape DNA sequences, and to identify genes and regions potentially related to pathogenicity with fast, simple and reliable methods. This will be of crucial importance when whole-genome sequencing will be a rapid, inexpensive and routine tool.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.