668 resultados para Approche intersectionnelle
Resumo:
RESUME L'utilisation de la thérapie génique dans l'approche d'un traitement des maladies oculaires dégénératives, plus particulièrement de la rétinite pigmentaire, semble être très prometteuse (Acland et al. 2001). Parmi les vecteurs développés, les vecteurs lentiviraux (dérivé du virus humain HIV-1), permettent la transduction des photorécepteurs après injection sous-rétinienne chez la souris durant les premiers jours de vie. Cependant l'efficacité du transfert de gène est nettement plus limitée dans ce type cellulaire après injection chez l'adulte (Kostic et al. 2003). L'objet de notre étude est de déterminer si la présence d'une barrière physique produite au cours du développement, située entre les photorécepteurs et l'épithélium pigmentaire ainsi qu'entre les photorécepteurs eux-mêmes, est responsable de: la diminution de l'entrée en masse du virus dans les photorécepteurs, minimisant ainsi son efficacité chez la souris adulte. De précédentes recherches, chez le lapin, ont décrit la capacité d'enzymes spécifiques comme la Chondroïtinase ABC et la Neuraminidase X de modifier la structure de la matrice entourant les photorécepteurs (Inter Photoreceptor Matrix, IPM) par digestion de certains de ses constituants suite à leur injection dans l'espace sous-rétinien (Yao et al. 1990). Considérant l'IPM comme une barrière physique, capable de réduire l'efficacité de transduction des photorécepteurs chez la souris adulte, nous avons associé différentes enzymes simultanément à l'injection sous-rétinienne de vecteurs lentiviraux afin d'améliorer la transduction virale en fragilisant I'IPM, la rendant ainsi plus perméable à la diffusion du virus. L'injection sous-rétinienne de Neuraminidase X et de Chondroïtinase ABC chez la souris induit des modifications structurales de l'IPM qui se manifestent respectivement par la révélation ou la disparition de sites de liaison de la peanut agglutinin sur les photorécepteurs. L'injection simultanée de Neuraminidase X avec le vecteur viral contenant le transgène thérapeutique augmente significativement le nombre de photorécepteurs transduits (environ cinq fois). Nous avons en fait démontré que le traitement enzymatique augmente principalement la diffusion du lentivirus dans l'espace situé entre l'épithélium pigmentaire et les photorécepteurs. Le traitement à la Chondroïtinase ABC n'entraîne quant à elle qu'une légère amélioration non significative de la transduction. Cette étude montre qu'une meilleure connaissance de l'IPM ainsi que des substances capables de la modifier (enzymes, drogues etc.) pourrait aider à élaborer de nouvelles stratégies afin d'améliorer la distribution de vecteurs viraux dans la rétine adulte.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.
Resumo:
ABSTRACTNeedle fibre calcite (NFC) is one of the most widespread habits of pedogenic calcite. It is a monocrystal of calcite, in the shape of a needle, with a diameter of one micron and a length between 4 and 103 times its width. NFC occurs in soils with different macroscopic and microscopic morphologies. Macroscopically, two main habits of NFC exist: "cotton ball'Mike clusters and as "powder" coating on pebbles inside the soil. It can also act as nucleation sites for precipitation of calcite cements of purely physicochemical origin (LCC - Late Calcitic Cement). Although many studies have been conducted on needle fibre calcite, its origin remains a subject of debate. The NFC having never been reproduced in the laboratory whatever the considered approach, the processes responsible for its precipitation as a so particular morphology remain unexplained. The shift between the length orientation of the needle crystal and the normal axis of calcite growth (c-axis) is also unresolved.Samples taken in two soils observed in quarries (Villiers and Savagnier) in the Swiss Jura Mountains are used to investigate the processes involved in the formation of these calcite crystals in pedogenic environments. Three groups of microscopic morphologies are distinguished: (i) simple needles (SN), (ii) simple needles with overgrowths (SNO), and (iii) simple needles with nanofibres (SNN), nanofibres being either organic or mineral in nature. These groups correspond to different stages in the formation and evolution of NFC.Comparison of carbon and oxygen isotope compositions of NFC with LCC, in relationship with the composition of the carbonate host rock (CHR), and the carbon isotope signature of dissolved inorganic carbon (DIC) from the soil waters, indicates that both NFC and LCC are precipitated in isotopic equilibrium with the soil solution. Similar Ô13C and Ô180 values of the elongated NFC and the rhombohedral calcite crystals of the LCC suggest that the precipitation of these different calcite habits is not due to changes in physicochemical conditions. The growth of NFC crystals inside an organic mould formed by the fungal hyphae could explain the formation of calcite ciystals in the shape of a needle in isotopic equilibrium with the local environment.Strontium and calcium isotope compositions of the three microscopic groups of NFC and LCC were also studied, in order to determine the origin of calcium (Ca2+) entrapped in the calcite lattice and to elucidate the processes responsible for the precipitation of NFC. The 87Sr/86Sr ratio of the SN is closer to the 87Sr/86Sr ratio of the carbonate host rock than the LCC, SNO, and SNN. This could be another clue for the formation of SN inside fungal hyphae, because fungi are known to dissolve the rocks to release and translocate through their hyphae nutrients necessary for their growth. SN and SNN are depleted in Sr and enriched in ^Ca compared to the LCC. In the context of Villiers quarry, where the two ciystal shapes precipitate at similar temperature (in a range of 0,6°C), such variations are the result of a slower precipitation rate of NFC, which is inconsistent with a purely physicochemically precipitated elongate crystal.Finally, NFC is enriched in major and trace elements (i.e. Fe, Zn, Cu, and Mo) compared to the LCC. This enrichment is ascribed to modification in precipitation processes between the NFC and LCC. Right now, it is not possible to preclude the influence of the particular shape of NFC or the biological influence. REEs are not fractionated in NFC, contrary to LCC. Thus, NFC does not precipitate from a percolation solution circulating downward the soil, which should lead to the fractionation of the REEs. As explained above, fungi, are able to dissolve and translocate nutrients. This kind of processes allows releasing elements in the soil solution without fractionation and could explain the particular chemical signature of NFC regarding the REEs.The geochemical approach to investigate the origin of NFC presented in this study does not allow providing direct clues to the fungal origin of NFC, but brings several new insights in the understanding of the formation of such a particular mineral, calcite needles, by precluding definitively their physicochemical origin.RESUMELa calcite en aiguilles (NFC) est l'une des formes les plus ubiquiste de calcite pédogénique. Il s'agit d'un monocrystal de calcite d'un diamètre d'un micron et d'une longueur 4 à 102 fois supérieure à sa largeur. A l'échelle macroscopique, la NFC a été observée sous deux principaux aspects : l'une « cotonneuse » et l'autre formant un mince croûte autour des graviers du sol. La NFC peut également servir de support à la nucléation de ciments secondaires précipités de manière purement physico-chimique (LCC). Malgré les nombreuses études menées sur la NFC, son origine demeure encore inconnue. A ce jour, aucune expérience en laboratoire n'a permis de créer de la calcite en aiguilles, et ce, quelque soit l'approche abordée. Par conséquent, les processus précis responsables de la précipitation calcite avec une telle morphologie restent inconnus. Le décalage existant entre l'axe d'allongement des aiguilles de calcite et l'axe normal de croissance de la calcite (axe c) reste inexpliqué.Des échantillons de NFC, LCC, roche mère, eau de pluie des différents horizons du sol ont été prélevés principalement au front de deux carrières de graviers, ainsi que dans un profil de sol adjacent à ces carrières, dans le but de mieux comprendre les processus à l'origine de la précipitation de calcite en forme d'aiguille. Trois micro-morphologies ont été distinguées: les aiguilles simples (SN), les aiguilles simples avec surcroissances calcitiques (SNO) et enfin les aiguilles simples avec nanofibres (SNN), celles-ci pouvant être de minérales ou organiques. Ces groupes, d'après nos résultats et les études antérieures pourraient correspondre à différentes étapes de formation de la calcite en aiguilles.Dans un premier temps, la comparaison des signatures isotopiques de la calcite en aiguilles, du LCC, de la roche mère et du carbone inorganique dissout dans la solution du sol (CID) indique que la NFC, tout comme le LCC, précipite en équilibre avec la solution du sol. Les valeurs similaires en Ô13C et δ180 de cristaux de calcite allongés (NFC) et rhombohédriques (LCC) formés dans un même milieu suggère que ces différences morphologiques ne peuvent pas être attribuées à des modifications purement physico-chimiques. La croissance de NFC à l'intérieur d'un moule organique comme les hyphes de champignons semble être la seule hypothèse plausible permettant d'expliquer la formation de monocrystaux allongés de calcite en équilibre avec leur environnement.La composition isotopique en strontium (Sr) et calcium (Ca) des LCC et des trois micro¬morphologies de la NFC ont été étudiées également, afin de déterminer l'origine du Ca2+ présent dans le réseau cristallin de la calcite en aiguilles, ainsi que les processus responsables de la formation de NFC. Les valeurs du rapport 87Sr/86$r de la forme SN sont les plus proches de celles de la roche mère par rapport aux formes SNN et SNO et du LCC. Ceci pourrait être un nouvel indice de l'implication des champignons dans la précipitation de calcite en aiguilles, puisqu'ils sont connus pour avoir la capacité de dissoudre les roches afin de libérer les nutriments nécessaires à leur croissance, ainsi que de les transloquer par leurs hyphes. De plus, les formes SN et SNN sont appauvries en Sr et enrichies en "Ca, comparativement au LCC. Dans le sol étudié, tous les carbonates de calcium précipitent à la même température, par conséquent, de telles variations sont dues à un taux de précipitation plus lent de SN et SNN, ce qui est contradictoire avec l'hypothèse physico-chimique. Pour finir, la NFC est enrichie en certains éléments majeurs et traces (i.e. Fe, Zn, Cu et Mo) par rapport au LCC. Ceci peut être attribué à différents processus de formation entre la NFC et le LCC. Pour le moment il est impossible d'exclure l'influence de la forme particulière de la NFC ou celle du champignon. Les terres rares (REEs) ne sont pas fractionnées dans la NFC, contrairement au LCC. Ceci peut être expliqué par le fait que la NFC précipite à partir d'une solution qui n'a pas percolé à travers le sol. Les champignons en dissolvant les roches mettent en solution éléments sans les fractionner. L'approche géochimique de l'étude de la calcite en aiguilles ne permets pas de produire des preuves directes sur sa potentielle origine fongique, mais permet de mieux comprendre comment un minéral aussi singulier que la NFC peut se former. D'autre pare cette étude permets d'exclure définitivement l'hypothèse physico-chimique de l'origine de la calcite en aiguilles
Resumo:
Le scandale de l'amiante, l'épidémie de suicides au travail ou bien encore le "karôshi" sont autant de faits qui invitent à une réflexion renouvelée sur les conditions de travail. Cette thèse part d'une volonté de revisiter, dans un monde professionnel bouleversé par les progrès constants de la technique et les pressions économiques, les liens entre santé et sécurité, telles que visées aux art. 328 CO, 6 LTr et 82 LAA. Il s'agit d'examiner l'articulation entre ces dispositions, sur la base d'une analyse historique et de l'apport actuel du système légal, et la pertinence de repenser celui-ci. En effet, le pluralisme des sources en la matière, hétérogènes de par leur nature (de droit public ou privé) et/ou de par leur objet (la santé ou la sécurité), et le manque d'harmonie entre elles ne sont pas sans créer difficultés d'application et doubles emplois. La présente thèse commence par quelques repères chronologiques sur la mise en place progressive et pragmatique de la législation sociale suisse. Suit un survol des lois protectrices et autres normativités extra-juridiques, qui laisse conclure à un foisonnement et à une hétérogénéité des sources applicables. Puis, les trois dispositions générales topiques, à savoir les articles 328 CO, 6 LTr et 82 LAA, font successivement l'objet d'un examen détaillé, en vue d'évaluer leur bien-fondé respectif et la pertinence d'une approche compartimentée de la santé et sécurité au travail. Et donc de conclure par une réflexion sur l'intérêt d'un changement, notamment par la suppression du dualisme LTr / LAA.
Resumo:
Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.
Resumo:
Il existe quatre filières de formation pour les psychologues conseillères et conseillers en orientation scolaire et professionnelle en Suisse. Une d'entre elles est de niveau universitaire et les trois autres sont de niveau post-grade (deuxième ou troisième cycle). Une des filières post-grade est proposée par une Université de sciences appliquées. Tout en étant spécifiques aux régions linguistiques, ces formations rendent compte d'un profil de compétences défini au niveau national. Le modèle théorique qui fonde généralement ces formations est éclectique. L'apprentissage social et la problématique de l'ajustement au contexte sont également des aspects qui constituent cette approche intégrative.
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Differences in efficacy and safety of drugs among patients are a recognized problem in pharmacotherapy. The reasons are multifactorial and, therefore, the choice of a drug and its dosage for a particular patient based on different clinical and genetic factors is suggested to improve the clinical outcome. Four drugs are currently used for the treatment of Alzheimer's disease: three acetylcholinesterase inhibitors (donepezil, galantamine, rivastigmine) and the N-methyl-D-aspartate-antagonist memantine. For these drugs, a high interindividual variability in plasma levels was observed, which might influence the response to treatment. The main objective of this thesis was to provide a better understanding of clinical and genetic factors affecting the plasma levels of antidementia drugs. Furthermore, the relationship between plasma levels, genetic variations and side effects was assessed. For this purpose, a pharmacogenetic study was conducted including 300 patients from a naturalistic clinical setting. Analytical methods for the simultaneous measurement of antidementia drugs in plasma have been developed and validated using liquid chromatography methods coupled with mass spectrometry detection. Presently, these methods are used in the therapeutic drug monitoring service of our laboratory. The routine use of therapeutic drug monitoring for antidementia drugs cannot yet be recommended with the available data, but it may be beneficial for some patients in special clinical cases such as insufficient treatment response, side effects or drug interactions. Donepezil and galantamine are extensively metabolized by the liver enzymes cytochromes P450 (CYP) 2D6 and 3A and are substrates of the drug transporter P-glycoprotein. The relationship of variations in genes affecting the activity of these metabolic enzymes and drug transporter (CYP2D6, CYP3A, POR, NR1I2, ABCB1) with donepezil and galantamine plasma levels was investigated. The CYP2D6 genotype appeared to be the major genetic factor involved in the pharmacokinetics of these two drugs. Thus, CYP2D6 poor metabolizers demonstrated significantly higher drug plasma levels than extensive metabolizers. Additionally, in the donepezil study population, the frequency of side effects was significantly increased in poor metabolizers. Lower donepezil plasma levels were observed in ultra rapid metabolizers, which might expose those patients to the risk of non-response. Memantine is mainly eliminated unchanged by the kidney, with implication of tubular secretion by renal transporters. A population pharmacokinetic model was developed to quantify the effects of clinical factors and genetic variations in renal cation transporters (SLC22A1/2/5, SLC47A1, ABCB1), and nuclear receptors (NR1I2, NR1I3, PPARG) involved in transporter expression, on memantine plasma levels. In addition to the renal function and gender, a genetic variation in the nuclear receptor Pregnane-X-Receptor (NR1I2) significantly affected memantine elimination. These findings suggest that an individualized therapy approach for antidementia drugs, taking into account clinical characteristics and genetic background of a patient, might increase efficacy and safety of the treatment. - Les différences interindividuelles dans l'efficacité et la tolérance des médicaments sont un problème connu en pharmacothérapie. Les raisons sont multiples, et le choix du médicament et de la dose, basé sur des facteurs cliniques et génétiques spécifiques au patient, peut contribuer à améliorer la réponse clinique. Quatre médicaments sont couramment utilisés dans le traitement de la maladie d'Alzheimer : trois inhibiteurs de l'acétylcholinestérase (donépézil, galantamine, rivastigmine) et un antagoniste du récepteur N-méthyl-D-aspartate, la mémantine. Une forte variabilité interindividuelle dans les taux plasmatiques de ces quatre composés a été observée, ce qui pourrait influencer la réponse au traitement. L'objectif principal de ce travail de thèse est de mieux comprendre les facteurs cliniques et génétiques influençant les taux des médicaments pro-cognitifs. En outre, des associations entre les taux, la variabilité génétique et les effets secondaires ont été recherchées. Dans ce but, 300 patients sous traitement avec un médicament pro-cognitif ont été recrutés pour une étude pharmacogénétique. Des méthodes de dosage simultané de médicaments pro-cognitifs par chromatographie liquide couplée à la spectrométrie de masse ont été développées et validées. Ces méthodes sont actuellement utilisées dans le service de suivi thérapeutique de notre unité. Malgré le fait qu'un suivi des taux sanguins des pro-cognitifs ne puisse pas encore être recommandé en routine, un dosage peut être utile dans des cas cliniques spécifiques, comme une réponse insuffisante, une intolérance ou une interaction médicamenteuse. Le donépézil et la galantamine sont fortement métabolisés par les cytochromes P450 (CYP) 2D6 et 3A, et sont également substrats du transporteur P-glycoprotéine. Les associations entre les polymorphismes génétiques de ces enzymes, cofacteur, récepteur nucléaire et transporteur (CYP2D6, CYP3A, POR, NR1I2, ABCB1) et les taux de donépézil et de galantamine ont été étudiées. Le génotype du CYP2D6 a été montré comme le facteur génétique majeur impliqué dans la pharmacocinétique de ces deux médicaments. Ainsi, les métaboliseurs déficients du CYP2D6 ont démontré des taux plasmatiques significativement plus élevés comparé aux bons métaboliseurs. De plus, dans la population traitée avec le donépézil, la fréquence des effets secondaires était plus élevée chez les métaboliseurs déficients. Des taux plasmatiques bas ont été mesurés chez les métaboliseurs ultra-rapides traités avec le donépézil, ce qui pourrait être un facteur de risque à une non-réponse au traitement. La mémantine est principalement éliminée sous forme inchangée par les reins, et partiellement par sécrétion tubulaire grâce à des transporteurs rénaux. Un modèle de cinétique de population a été développé pour quantifier les effets des différents facteurs cliniques et de la variabilité génétique des transporteurs rénaux (SLC22A1/2/5, SLC47A1, ABCB1) et des récepteurs nucléaires (NR1I2, NR1I3, PPARG, impliqués dans l'expression des transporteurs) sur les taux plasmatiques de mémantine. En plus de la fonction rénale et du genre, une variation génétique dans le récepteur nucléaire Pregnane-X-Receptor (NR1I2) a montré une influence significative sur l'élimination de la mémantine. Ces résultats suggèrent qu'une approche thérapeutique individualisée, prenant en compte des facteurs cliniques et génétiques du patient, pourrait améliorer l'efficacité et la sécurité du traitement pro-cognitif.
Resumo:
Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.
Resumo:
Cet article fait le point sur les recommandations actuelles en matière d'activité physique bénéfique pour la santé. Il décrit plus spécifiquement les bénéfices cardiovasculaires d'une activité physique régulière. Une approche est finalement proposée pour la pratique du conseil en activité physique au cabinet médical.