998 resultados para approche


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La résection par voie endoscopique transnasale de tumeurs envahissant la base du crâne antérieure a été récemment décrite. Cette chirurgie requiert une connaissance précise des repères anatomiques endoscopiques afin réduire le risque de complications vasculaires et neurologiques.¦Nous avons réalisé une étude anatomique endoscopique sur 6 têtes dont 3 injectées avec du silicone coloré. Les repères anatomiques pour les abords de 3 régions d'importance clinique ont été étudiés. Les repères pour l'abord de l'apex orbitaire sont le recessus carotidien latéral, l'empreinte du nerf optique, « l'optic strut » et le V2. Leurs rapports avec le canal optique, l'artère carotide interne et les fentes orbitaires supérieures et inférieures sont décrits. Les repères pour l'abord de l'apex pétreux sont le V2 et le nerf vidien qui permettent repérer la portion intrapétreuse de l'artère carotide interne. Les repères pour l'abord de la fosse ptérygomaxillaire sont le V2 et le foramen rotundum, l'artère et le trou sphénopalatins et l'artère maxillaire interne.¦Cette nouvelle approche permettant d'aborder des lésions médianes et paramédianes ouvre de nouvelles perspectives pour des équipes de neurochirurgiens et d'ORL. Ces voies d'abords s'appliquent aussi bien à des résections décompressives à but palliatif qu'à l'exérèse de tumeurs benignes et malignes, bien que les résultats à long terme doivent encore être validés pour cette dernière indication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les larves aquatiques d'éphémères (Ephemeroptera) colonisent toutes les eaux douces du monde et sont couramment utilisées comme bio-indicateurs de la qualité de l'eau. Le genre Rhithrogena (Heptageniidae) est le deuxième plus diversifié chez les éphémères, et plusieurs espèces européennes ont une distribution restreinte dans des environnements alpins sensibles. Les espèces de Rhithrogena ont été classées en "groupes d'espèces" faciles à identifier. Cependant, malgré leur importance écologique et en terme de conservation, beaucoup d'espèces présentent des différences morphologiques ambiguës, suggérant que lataxonomie actuelle ne refléterait pas correctement leur diversité évolutive. De plus, aucune information sur leurs relations, leur origine, le taux de spéciation ou les mécanismes ayant provoqué leur remarquable diversification dans les Alpes n'est disponible. Nous avons d'abord examiné le statut spécifique d'environ 50% des espèces européennes de Rhithrogena en utilisant un large échantillonnage de populations alpines incluant 22 localités typiques, ainsi qu'une analyse basée sur le modèle général mixte de Yule et de coalescence (GMYC) appliqué à un gène mitochondrial standard (coxl) et à un gène nucléaire développé spécifiquement pour cette étude. Nous avons observé un regroupement significatif des séquences coxl en 31 espèces potentielles, et nos résultats ont fortement suggéré la présence d'espèces cryptiques et de fractionnements taxonomiques excessifs chez les Rhithrogena. Nos analyses phylogénétiques ont démontré la monophylie de quatre des six groupes d'espèces reconnus présents dans notre échantillonnage. La taxonomie ADN développée dans cette étude pose les bases d'une future révision de ce genre important mais cryptique en Europe. Puis nous avons mené une étude phylogénétique multi-gènes entre les espèces européennes de Rhithrogena. Les données provenant de trois gènes nucléaires et de deux gènes mitochondriaux ont été largement concordantes, et les relations entre les espèces bien résolues au sein de la plupart des groupes d'espèces dans une analyse combinant tous les gènes. En l'absence de points de calibration extérieurs tels que des fossiles, nous avons appliqué à nos données mitochondriales une horloge moléculaire standard pour les insectes, suggérant une origine des Rhithrogena alpins à la limite Oligocène / Miocène. Nos résultats ont montré le rôle prépondérant qu'ont joué les glaciations du quaternaire dans leur diversification, favorisant la spéciation d'au moins la moitié des espèces actuelle dans les Alpes. La biodiversité et le taux d'endémisme à Madagascar, notamment au niveau de la faune des eaux douces, sont parmi les plus extraordinaires et les plus menacés au monde. On pense que beaucoup d'espèces d'éphémères sont restreintes à un seul bassin versant (microendémisme) dans les zones forestières, ce qui les rendrait particulièrement sensibles à la réduction et à la dégradation de leur habitat. Mis à part deux espèces décrites, Afronurus matitensis et Compsoneuria josettae, les Heptageniidae sont pratiquement inconnus à Madagascar. Les deux genres ont une distribution discontinue en Afrique, à Madagascar et en Asie du Sud-Est, et leur taxonomie complexe est régulièrement révisée. L'approche standard pour comprendre leur diversité, leur endémisme et leur origine requerrait un échantillonnage étendu sur plusieurs continents et des années de travaux taxonomiques. Pour accélérer le processus, nous avons utilisé des collections de musées ainsi que des individus fraîchement collectés, et appliqué une approche combinant taxonomie ADN et phylogénie. L'analyses GMYC du gène coxl a délimité 14 espèces potentielles à Madagascar, dont 70% vraisemblablement microendémiques. Une analyse phylogénique incluant des espèces africaines et asiatiques portant sur deux gènes mitochondriaux et quatre gènes nucléaires a montré que les Heptageniidae malgaches sont monophylétiques et groupe frère des Compsoneuria africains. L'existence de cette lignée unique, ainsi qu'un taux élevé de microendémisme, mettent en évidence leur importance en terme de conservation. Nos résultats soulignent également le rôle important que peuvent jouer les collections de musées dans les études moléculaires et en conservation. - Aquatic nymphs of mayflies (Ephemeroptera) colonize all types of freshwaters throughout the world and are extensively used as bio-indicators of water quality. Rhithrogena (Heptageniidae) is the second most species-rich genus of mayflies, and several European species have restricted distributions in sensitive Alpine environments and therefore are of conservation interest. The European Rhithrogena species are arranged into "species groups" that are easily identifiable. However, despite their ecological and conservation importance, ambiguous morphological differences among many species suggest that the current taxonomy may not accurately reflect their evolutionary diversity. Moreover, no information about their relationships, origin, timing of speciation and mechanisms promoting their successful diversification in the Alps is available. We first examined the species status of ca. 50% of European Rhithrogena diversity using a widespread sampling scheme of Alpine species that included 22 type localities, general mixed Yule- coalescent (GMYC) model analysis of one standard mitochondrial (coxl) and one newly developed nuclear marker. We observed significant clustering of coxl into 31 GMYC species, and our results strongly suggest the presence of both cryptic diversity and taxonomic oversplitting in Rhithrogena. Phylogenetic analyses recovered four of the six recognized species groups in our samples as monophyletic. The DNA taxonomy developed here lays the groundwork for a future revision of this important but cryptic genus in Europe. Then we conducted a species-level, multiple-gene phylogenetic study of European Rhithrogena. Data from three nuclear and two mitochondrial loci were broadly congruent, and species-level relationships were well resolved within most species groups in a combined analysis. In the absence of external calibration points like fossils, we applied a standard insect molecular clock hypothesis to our mitochondrial data, suggesting an origin of Alpine Rhithrogena in the Oligocene / Miocene boundary. Our results highlighted the preponderant role that quaternary glaciations played in their diversification, promoting speciation of at least half of the current diversity in the Alps. Madagascar's biodiversity and endemism are among the most extraordinary and endangered in the world. This includes the island's freshwater biodiversity, although detailed knowledge of the diversity, endemism, and biogeographic origin of freshwater invertebrates is lacking. Many mayfly species are thought to be restricted to single river basins (microendemic species) in forested areas, making them particularly sensitive to habitat reduction and degradation. The Heptageniidae are practically unknown in Madagascar except for two described species, Afronurus matitensis and Compsoneuria josettae. Both genera have a disjunct distribution in Africa, Madagascar and Southeast Asia, and a complex taxonomic status still in flux. The standard approach to understanding their diversity, endemism, and origin would require extensive field sampling on several continents and years of taxonomic work. Here we circumvent this using museum collections and freshly collected individuals in a combined approach of DNA taxonomy and phylogeny. The cox/-based GMYC analysis revealed 14 putative species on Madagascar, 70% of which potentially microendemics. A phylogenetic analysis that included African and Asian species and data from two mitochondrial and four nuclear loci indicated the Malagasy Heptageniidae are monophyletic and sister to African Compsoneuria. The observed monophyly and high microendemism highlight their conservation importance. Our results also underline the important role that museum collections can play in molecular studies, especially in critically endangered biodiversity hotspots like Madagascar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Leishmania parasites have been plaguing humankind for centuries as a range of skin diseases named the cutaneous leishmaniases (CL). Carried in a hematophagous sand fly, Leishmania usually infests the skin surrounding the bite site, causing a destructive immune response that may persist for months or even years. The various symptomatic outcomes of CL range from a benevolent self- healing reddened bump to extensive open ulcerations, resistant to treatment and resulting in life- changing disfiguration. Many of these more aggressive outcomes are geographically isolated within the habitats of certain Neotropical Leishmania species; where about 15% of cases experience metastatic complications. However, despite this correlation, genetic analysis has revealed no major differences between species causing the various disease forms. We have recently identified a cytoplasmic dsRNA virus within metastatic L. guyanensis parasites that acts as a potent innate immunogen capable of worsening lesionai inflammation and prolonging parasite survival. The dsRNA genome of Leishmania RNA virus (LRV) binds and stimulates Toll-Like-Receptor-3 (TLR3), inducing this destructive inflammation, which we speculate as a factor contributing to the development of metastatic disease. This thesis establishes the first experimental model of LRV-mediated leishmanial metastasis and investigates the role of non-TLR3 viral recognition pathways in LRV-mediated pathology. Viral dsRNA can be detected by various non-TLR3 pattern recognition receptors (PRR); two such PRR groups are the RLRs (Retinoic acid-inducible gene 1 like receptors) and the NLRs (nucleotide- binding domain, leucine-rich repeat containing receptors). The RLRs are designed to detect viral dsRNA in the cytoplasm, while the NLRs react to molecular "danger" signals of cell damage, often oligomerizing into molecular scaffolds called "inflammasomes" that activate a potent inflammatory cascade. Interestingly, we found that neither RLR signalling nor the inflammasome pathway had an effect on LRV-mediated pathology. In contrast, we found a dramatic inflammasome independent effect for the NLR family member, NLRP10, where a knockout mouse model showed little evidence of disease. This phenotype was mimicked in an NLR knockout with which NLRP10 is known to interact: NLRC2. As this pathway induces the chronic inflammatory cell lineage TH17, we investigated the role of its key chronic inflammatory cytokine, IL-17A, in human patients infected by L. guyanensis. Indeed, patients infected with LRV+ parasites had a significantly increased level of IL-17A in lesionai biopsies. Interestingly, LRV presence was also associated with a significant decrease in the correlate of protection, IFN-y. This association was repeated in our murine model, where after we were able to establish the first experimental model of LRV-dependent leishmanial metastasis, which was mediated by IL-17A in the absence of IFN-y. Finally, we tested a new inhibitor of IL-17A secretion, SR1001, and reveal its potential as a Prophylactic immunomodulator and potent parasitotoxic drug. Taken together, these findings provide a basis for anti-IL-17A as a feasible therapeutic intervention to prevent and treat the metastatic complications of cutaneous leishmaniasis. -- Les parasites Leishmania infectent l'homme depuis des siècles causant des affections cutanées, appelées leishmanioses cutanées (LC). Le parasite est transmis par la mouche des sables et réside dans le derme à l'endroit de la piqûre. Au niveau de la peau, le parasite provoque une réponse immunitaire destructrice qui peut persister pendant des mois voire des années. Les symptômes de LC vont d'une simple enflure qui guérit spontanément jusqu' à de vastes ulcérations ouvertes, résistantes aux traitements. Des manifestations plus agressives sont déterminées par les habitats géographiques de certaines espèces de Leishmania. Dans ces cas, environ 15% des patients développent des lésions métastatiques. Aucun «facteur métastatique» n'a encore été trouvé à ce jour dans ces espèces. Récemment, nous avons pu identifier un virus résidant dans certains parasites métastatiques présents en Guyane française (appelé Leishmania-virus, ou LV) et qui confère un avantage de survie à son hôte parasitaire. Ce virus active fortement la réponse inflammatoire, aggravant l'inflammation et prolongeant l'infection parasitaire. Afin de diagnostiquer, prévenir et traiter ces lésions, nous nous sommes intéressés à identifier les composants de la voie de signalisation anti-virale, responsables de la persistance de cette inflammation. Cette étude décrit le premier modèle expérimental de métastases de la leishmaniose induites par LV, et identifie plusieurs composants de la voie inflammatoire anti-virale qui facilite la pathologie métastatique. Contrairement à l'homme, les souris de laboratoire infectées par des Leishmania métastatiques (contenant LV, LV+) ne développent pas de lésions métastatiques et guérissent après quelques semaines d'infection. Après avoir analysé un groupe de patients atteints de leishmaniose en Guyane française, nous avons constaté que les personnes infectées avec les parasites métastatiques LV+ avaient des niveaux significativement plus faibles d'un composant immunitaire protecteur important, appelé l'interféron (IFN)-y. En utilisant des souris génétiquement modifiées, incapables de produire de l'IFN-y, nous avons observé de telles métastases. Après inoculation dans le coussinet plantaire de souris IFN-y7" avec des parasites LV+ ou LV-, nous avons démontré que seules les souris infectées avec des leishmanies ayant LV développent de multiples lésions secondaires sur la queue. Comme nous l'avons observé chez l'homme, ces souris sécrètent une quantité significativement élevée d'un composant inflammatoire destructeur, l'interleukine (IL)-17. IL-17 a été incriminée pour son rôle dans de nombreuses maladies inflammatoires chroniques. On a ainsi trouvé un rôle destructif similaire pour l'IL-17 dans la leishmaniose métastatique. Nous avons confirmé ce rôle en abrogeant IL-17 dans des souris IFN-y7- ce qui ralentit l'apparition des métastases. Nous pouvons donc conclure que les métastases de la leishmaniose sont induites par l'IL-17 en absence d'IFN-v. En analysant plus en détails les voies de signalisation anti-virale induites par LV, nous avons pu exclure d'autres voies d'activation de la réponse inflammatoire. Nous avons ainsi démontré que la signalisation par LV est indépendante de la signalisation inflammatoire de type « inflammasome ». En revanche, nous avons pu y lier plusieurs autres molécules, telles que NLRP10 et NLRC2, connues pour leur synergie avec les réponses inflammatoires. Cette nouvelle voie pourrait être la cible pour des médicaments inhibant l'inflammation. En effet, un nouveau médicament qui bloque la production d'IL-17 chez la souris s'est montré prometteur dans notre modèle : il a réduit le gonflement des lésions ainsi que la charge parasitaire, indiquant que la voie anti-virale /inflammatoire est une approche thérapeutique possible pour prévenir et traiter cette infection négligée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les laboratoires forensiques, les analyses journalières réalisées sur les produits stupéfiants concernent identification, quantification et détermination de la signature chimique. Cette approche implique la création de banques de données compilant les résultats analytiques obtenus. Les banques de données de produits stupéfiants sont approvisionnées continuellement et permettent la recherche rétrospective de liens chimiques entre différentes saisies policières, non suspectés a priori lors de l'enquête policière. Ces renseignements soutiennent l'investigation des forces de police et doivent être combinés aux informations policières traditionnelles. A un niveau international, la stratégie prônée pour l'échange en temps réel d'informations liées aux profils chimiques consiste en la création de banques de données harmonisées et partagées par les laboratoires des pays participants. Pour y parvenir, l'utilisation d'une même méthode analytique est recommandée, celle-ci étant définie par ses technologies d'analyses de séparation et de détection, par l'appareillage sélectionné pour réaliser les analyses (marque et modèle) et par les paramètres analytiques décrivant chacune des technologies d'analyse. Cette approche s'avère contraignante et longue à mettre en place en raison du travail intensif en laboratoire requis pour obtenir des résultats comparables entre différents laboratoires. De plus, elle est problématique sur le long terme pour un laboratoire en raison de l'inertie analytique et de la perte d'informations qui en découlent. En effet, selon cette approche, il n'est pas possible d'implémenter une nouvelle méthode analytique tout en approvisionnant la même banque de données en raison de la nature différente des résultats. Il faut alors créer une nouvelle banque de données approvisionnée par la nouvelle méthode analytique et en conséquence mettre à zéro la mémoire de notre connaissance, établie durant plusieurs années. Dans ce travail de recherche, une méthodologie est ainsi proposée permettant la comparaison de résultats provenant de méthodes analytiques différentes dans l'optique de l'approvisionnement d'une banque de données par ces dernières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accompagnement des mourants proposé par les soins palliatifs se fonde sur l'autonomie du patient impliquant un discours ouvert autour de la mort qui approche. Afin de déployer leur offre à l'hôpital, les professionnels des soins palliatifs souhaitent formaliser l'entrée dans la phase palliative de manière à ce qu'elle soit mieux anticipée et coordonnée, mais aussi plus explicite pour le patient. Ce « passage » soulève des enjeux importants, notamment au niveau de la collaboration interprofessionnelle entre une équipe mobile de soins palliatifs et ceux de « première ligne » d'un hôpital, tout en nécessitant un accompagnement « renforcé » du patient autour de l'annonce de la fin de vie. Dans cet article, nous nous intéressons de près à certains traitements (opiacés, sédatifs utilisés lors de sédations palliatives) dans la mesure où leurs prises génèrent des tensions et des négociations importantes dans l'accompagnement de la fin de vie. Plus précisément, les usages détournés de ces substances - permettant d'accélérer, de repousser ou encore d'altérer la fin de vie - nous renseignent sur ce que l'accompagnement de la fin de vie à l'hôpital implique respectivement pour les patients, leurs proches, ainsi que pour les professionnels de la santé. Le rapport aux opiacés et aux sédatifs, agissant sur le temps qui reste, laisse entrevoir les dilemmes et difficultés qu'occasionne l'accompagnement d'une fin de vie conscientisée et responsable prônée par les soins palliatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'utilisation de la thérapie génique dans l'approche d'un traitement des maladies oculaires dégénératives, plus particulièrement de la rétinite pigmentaire, semble être très prometteuse (Acland et al. 2001). Parmi les vecteurs développés, les vecteurs lentiviraux (dérivé du virus humain HIV-1), permettent la transduction des photorécepteurs après injection sous-rétinienne chez la souris durant les premiers jours de vie. Cependant l'efficacité du transfert de gène est nettement plus limitée dans ce type cellulaire après injection chez l'adulte (Kostic et al. 2003). L'objet de notre étude est de déterminer si la présence d'une barrière physique produite au cours du développement, située entre les photorécepteurs et l'épithélium pigmentaire ainsi qu'entre les photorécepteurs eux-mêmes, est responsable de: la diminution de l'entrée en masse du virus dans les photorécepteurs, minimisant ainsi son efficacité chez la souris adulte. De précédentes recherches, chez le lapin, ont décrit la capacité d'enzymes spécifiques comme la Chondroïtinase ABC et la Neuraminidase X de modifier la structure de la matrice entourant les photorécepteurs (Inter Photoreceptor Matrix, IPM) par digestion de certains de ses constituants suite à leur injection dans l'espace sous-rétinien (Yao et al. 1990). Considérant l'IPM comme une barrière physique, capable de réduire l'efficacité de transduction des photorécepteurs chez la souris adulte, nous avons associé différentes enzymes simultanément à l'injection sous-rétinienne de vecteurs lentiviraux afin d'améliorer la transduction virale en fragilisant I'IPM, la rendant ainsi plus perméable à la diffusion du virus. L'injection sous-rétinienne de Neuraminidase X et de Chondroïtinase ABC chez la souris induit des modifications structurales de l'IPM qui se manifestent respectivement par la révélation ou la disparition de sites de liaison de la peanut agglutinin sur les photorécepteurs. L'injection simultanée de Neuraminidase X avec le vecteur viral contenant le transgène thérapeutique augmente significativement le nombre de photorécepteurs transduits (environ cinq fois). Nous avons en fait démontré que le traitement enzymatique augmente principalement la diffusion du lentivirus dans l'espace situé entre l'épithélium pigmentaire et les photorécepteurs. Le traitement à la Chondroïtinase ABC n'entraîne quant à elle qu'une légère amélioration non significative de la transduction. Cette étude montre qu'une meilleure connaissance de l'IPM ainsi que des substances capables de la modifier (enzymes, drogues etc.) pourrait aider à élaborer de nouvelles stratégies afin d'améliorer la distribution de vecteurs viraux dans la rétine adulte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de la présente étude est de cerner les facteurs de succès et d'échec des réouvertures et modernisations de lignes ferroviaires transfrontalières dans les zones limitrophes. L'enquête prend pour base deux lignes franco-belges (Mons-Valenciennes et Namur- Charleville-Mézières) et deux lignes franco-suisses (Delémont-Belfort et Neuchâtel- Besançon). Le problème public réside dans l'absence de moyens de transports publics exploitant le potentiel existant dans le bassin de vie concerné (sous-exploitation du marché des transports). Les obstacles à franchir dans le domaine des transports ferroviaires peuvent être de nature juridique. Ainsi, des prescriptions légales telles que certains standards d'interopérabilité, l'absence d'une définition de l'expression «train régional» au niveau européen, la sécurité (passages à niveau) ou des mesures en faveur des personnes à mobilité réduite, peuvent entraver, voire empêcher des réouvertures ou modernisations de lignes régionales, car ces standards ne sont pas adaptés à la réalité des lignes dont le potentiel est faible en termes de voyageurs et de fret. À un autre niveau, il est rare que les aspects techniques constituent des obstacles. C'est cependant le cas lorsque deux réseaux ferroviaires nourrissent des philosophies antagonistes (réseau cadencé et non cadencé). Pour la réouverture des lignes, on constate l'absence de définitions claires, au niveau politique, de la desserte de base et des seuils de fréquentation minimale. Il y a parfois un contraste marqué entre une infrastructure dégradée et un matériel roulant très moderne, signe d'absence de sensibilisation à l'entretien des infrastructures ferroviaires. Pourtant, ces infrastructures jouent un rôle important à l'échelon géopolitique. Correctement aménagées (offre, temps de parcours, correspondances), elles permettent le désenclavement de toute une région. La réouverture d'un chaînon manquant peut changer la position géopolitique d'une région, comme dans le cas de Mons-Valenciennes; mais en même temps, l'argument de l'impact géopolitique peut entraver une réouverture, même lorsqu'il n'est pas fondé, comme le montre le cas de Dinant-Givet qui semble concurrencer une autre ligne existante. L'impact des lignes à grande vitesse sur les régions limitrophes est souvent surestimé. En revanche, la praticabilité du concept des quatre capitaux (capital manufacturé, social, naturel et humain) est sous-estimée dans le domaine des transports publics. Les grilles d'analyse des quatre capitaux nous ont en effet permis de prouver l'applicabilité du concept aux lignes ferroviaires transfrontalières, en dépit du manque de me- surabilité de certains indicateurs. L'évaluation des lignes retenues à l'aide de notre grille d'analyse montre que les lignes régionales françaises accusent un lourd retard en termes de performance. Ce fait est confirmé dans les quatre capitaux. En appliquant notre méthode de planification à des lignes ferroviaires (transfrontalières), on observe que les lignes actuelles n'exploitent pas suffisamment leur potentiel. L'approche proposée se base sur le triangle «offre - infrastructure - matériel roulant» et s'articule autour des usagers. Avant toute planification, il faut développer une vision pour la région et la ligne concernée, dans laquelle la voie ferrée servira d'axe structurant. La vision se manifeste par un horaire qui traduit l'offre sou-haitée à long terme avec des temps de parcours idéaux, et des noeuds de correspondance avec d'autres moyens de transport. Alors, les lignes régionales peuvent contribuer à un changement de paradigme qui favorise un mode de vie axé davantage sur les services des transports publics que sur le transport individuel, également dans les régions limitrophes. - Het doel van deze Studie is het onderzocken von de redenen van het succès en van het falen van de heropening of modernisering van al of niet grensoverschrijdende spoorlijnen. Het on- derzoek is gebaseerd op twee Frans-Belgische lijnen (Bergen-Yalenciennes en Namen- Charleville-Mezières) en twee Frans-Zwitserse lijnen (Delémont-Belfort en Neuchâtel- Besançon). Het probleem is de afwezigheid van openbare transportmogelijkheden in de uitbating van de betrokken woongebieden (onderbenutting van de transportmarkt). De te overschrijden hindernissen op het gebied van spoorwegvervoer kunnen van juridische oorsprong zijn. Dat wil zeggen dat wettelijke vereisten zoals bepaalde standaarden voor inte- roperabiliteit, het ontbreken van een definitie van «regionale trein» op Europees niveau, de beveiliging (spoorwegovergangen) of maatregelen voor mensen met verminderde mobiliteit de heropening of modernisering van de regionale lijnen kunnen verhinderen, aangezien deze normen niet zijn aangepast aan de realiteit op aan de lijnen waarvan het potenti eel laag is, zowel voor reizigers als voor goederen. Op een ander niveau is het zeldzaam dat de technische as-pecten voor obstakels zorgen. Het is nochtans het geval wanneer twee spoorwegnetten zorgen voor tegenstrijdige ideeën (regelmatig of onregelmatig bezet net). Om de lijnen te he- ropenen, is er een gebrek aan duidelijke afspraken op politiek niveau, voor een minimale be- diening en een minimale opkomst. Soms is er een groot contrast tussen een verouderde infras- tructuur en een zeer modem rollend materieel, een teken van gebrek aan gezond verstand bij het onderhoud van de spoorweginfrastructuur. Deze infrastructuur speelt echter een belan- grijke roi in het geopolitieke niveau. Goed beheerd (aanbod, reistijd, verbindingen) zorgen ze voor een heropening van een hele regio. De heropening van een ontbrekende schakel kan de geopolitieke positie van een regio veranderen, zoals in het geval van Bergen-Valenciennes, maar terzelfder tijd kan het argument van de geopolitieke impact een heropening verhinderen, zelfs als het ongegrond is, zoals in het geval van Dinant-Givet dat blijkt te concurreren met een andere bestaande lijn. De impact van hogesnelheidslijnen op grensoverschrijdende regio's wordt vaak overschat. Daartegenover wordt de haalbaarheid van het concept van de vier kapi- taalvlakken (opbouwend, sociaal, natuurlijk en menselijk kapitaal) onderschat op het gebied van openbaar vervoer. De analyse van de vier kapitaalvlakken heeft ons toegelaten de toepas- baar-heid van het concept van de grensoverschrijdende spoorlijnen aan te tonen, ondanks het ge-brek aan meetbaarheid van bepaalde indicatoren. Evaluatie van de lijnen, geselecteerd met behulp van ons analysekader, heeft aangetoond dat Franse regionale lijnen achterblijven op het gebied van prestaties. Dit wordt bevestigd op de vier kapitaalvlakken. Door het toepassen van onze planningsmethode op spoorlijnen (in grenszones), zien we dat de huidige lijnen hun potentieel onvoldoende benutten. De voorgestelde aanpak is gebaseerd op de driehoek «aan- bieding - infrastructuur - rollend materieel» en rieht zieh op de gebruikers. Vooraleer een planning opgesteld kan worden, moeten we een visie ontwikkelen voor de betrokken lijn en de regio waarin de spoorweg zal dienen als structurele as. De visie baseert zieh op een diens- tregeling die uitgaat van een aanbod op lange termijn met ideale rijtijden en knooppunten met an-dere transportmiddelen. Zodoende kunnen regionale lijnen bijdragen aan een paradigma- vers-chuiving die een levensstijl promoot die meer gericht is op het openbaar vervoer dan op het individueel vervoer, ook in naburige regio's. - Das Ziel der Studie ist die Identifizierung von Erfolgs- und Misserfolgsfaktoren bei Wiedereröffnungen und Modernisierungen von (grenzüberschreitenden) Regionalverkehrslinien in Randregionen. Die Untersuchung stützt sich auf zwei belgisch-französische (Mons- Valenciennes und Namur-Charleville-Mézières) sowie zwei schweizerisch-französische Linien (Delémont-Belfort und Neuchâtel-Besançon). Das öffentliche Problem besteht im Fehlen eines öffentlichen Verkehrsmittels, welches das vorhandene Potential im Einzugsbereich der betrachteten Linien vollständig ausnützt (unvollständige Ausnützung des vorhandenen Transportmarktes). Die zu überwindenden Hindernisse auf dem Gebiet des Eisenbahnwesens können juristischer Natur sein. Es handelt sich dabei um gewisse juristische Vorschriften w. z. B. Interoperabili- tätsstandards, die Abwesenheit einer klaren Definition des Begriffes «Regionalverkehr» auf europäischer Ebene, Sicherheitsstandards (Bahnübergänge) oder Massnahmen zu Gunsten von Behinderten, die Wiedereröffnungen behindern können, weil diese Standards keine Rücksicht auf die Gegebenheiten von Regionallinien mit einem geringen Nachfragepotential nehmen. Technische Vorgaben stellen nur selten ein Hindernis bei Wiedereröffnungen dar. Dies kann dann der Fall sein, wenn zwei Eisenbahnnetze mit unterschiedlichen Betriebsphilosophien aufeinander treffen (Netz mit Taktverkehr und unvertaktete Netze). Bei Wiedereröffnung von Eisenbahnlinie ist festzustellen, dass auf politischer Ebene keine Definitionen in Bezug auf Basisangebot und der minimalen Nachfrage bestehen. Bisweilen ist ein starker Kontrast zwischen einem schlechten Infrastrukturzustand und einem darauf verkehrenden modernem Rollmaterial festzustellen. Gerade diese Infrastruktur spielt auf geopolitischer Ebene eine wichtige Rolle. Wird diese korrekt betrieben (attraktives Angebot, Fahrzeit, Umsteigeverbindungen), erlaubt sie einer ganzen Region eine Lösung aus der Isolation. Die Wiedereröffnung eines fehlenden Teilstücks kann die geopolitische Situation einer Region positiv verändern, wie das Beispiel der Linie Mons-Valenciennes zeigt. Gleichzeitig kann das Argument der geopolitischen Position eine Wiedereröffnung behindern, auch wenn die vorgebrachten Argumente nicht stichhaltig sind, wie das Beispiel der Linie Dinant-Givet beweist, die angeblich einen bestehenden Eisenbahgüterverkehrskorridor konkurrenzieren soll. Der Einfluss von Hochgeschwindigkeitsstrecken auf Randregionen wird oft überschätzt. Im Gegensatz dazu wird die Anwendbarkeit des Konzeptes der vier Kapitalien (konstruiertes, soziales, natürliches und Human-Kapital) bei der Anwendbarkeit im öffentlichen Verkehr unters-chätzt. Der verwendete Analyseraster der vier Kapitalien erlaubt die Anwendbarkeit dieses Ansatzes auf grenzüberschreitende Eisenbahnlinien, trotz des Fehlens von Daten für zahlreiche Indikatoren, zu untermauern. Die Evaluation der betrachteten Linien hat gezeigt, dass die französischen Schienenregionalverkehrslinien einen bedeutenden Rückstand in Bezug auf die Leistungsfähigkeit vorweisen. Dies wird durch die Anwendung des Analyseraster der vier Kapitalien bestätigt. Der Einsatz, der in dieser Arbeit entwickelten Planungsmethode auf die vier grenzüberschreitenden Regionalverkehrslinien hat gezeigt, dass die heutige Betriebsweise von Regionalverkehrslinien das vorhandene Potential nicht ausschöpft. Der vorgeschlagene Ansatz basiert auf dem Dreieck «Angebot - Infrastruktur - Rollmaterial» in dem die Benützerlnnen im Zentrum stehen. Jedoch steht die Entwicklung einer Vision für die betroffene Region und Linie vor dem Beginn jeder Planung im Zentrum, bei der die Eisenbahnlinie als strukturierende Achse benützt wird. Diese manifestiert sich in einer Fahrplanstruktur, die das langfristig gewünschte Angebot mit idealen Fahrzeiten und Umsteigeknoten mit anderen Verkehrsmitteln beinhaltet. In dieser Weise können die Regionalverkehrslinien einen Beitrag zu einem Paradigmawechsel beitragen, der auch in Randregionen einen Lebensstil fördert, der vermehrt auf den öffentlichen Verkehr als auf den motorisierten Individualverkehr setzt. - L'obiettivo di questo studio è quello di identificare i fattori di successo e di fallimento relativi alla riapertura e modernizzazione di linee ferroviarie transfrontaliere e non in aree limitrofe. L'indagine si basa su due linee franco-belghe (Mons-Valenciennes e Namur-Charleville- Mézières) e due linee franco-svizzere (Delémont-Belfort e Neuchâtel-Besançon). Il problema pubblico è la mancanza di mezzi di trasporto pubblico che sfruttino il potenziale esistente nel bacino d'utenza interessato (sottoutilizzazione del mercato dei trasporti). Gli ostacoli da superare nel settore del trasporto ferroviario possono essere di natura giuridica - vale a dire, requisiti legali come alcuni standard d'interoperabilità, l'assenza di una definizione del termine «treno regionale» a livello europeo, la sicurezza (passaggi a livello) o misure a favore di persone a mobilità ridotta, che possono ostacolare o impedire la riapertura o modernizzazione di linee regionali poiché queste norme non vengono adattate alla realtà delle linee il cui potenziale è basso in termini di viaggiatori e merci. A un altro livello è raro che aspetti tecnici costituiscano degli ostacoli. Tuttavia è il caso quando due reti ferroviarie perseguono filosofie antagoniste (rete cadenzata e non cadenzata). Per riaprire le linee si rileva una mancanza di definizioni chiare, a livello politico, del collegamento di base e delle soglie minime di frequentazione. A volte vi è un netto contrasto tra un'infrastruttura degradata e un modernissimo materiale rotabile, segno della mancanza di sensibilizzazione per la manutenzione delle infrastrutture ferroviarie. Eppure queste strutture svolgono un ruolo importante a livello geopolitico. Correttamente gestite (offerta, tempi di percorrenza, coincidenze), permettono l'apertura verso l'esterno di un'intera regione. La riapertura di un tassello mancante può cambiare la posizione geopolitica di una regione, come nel caso di Mons-Valenciennes. Allo stesso tempo, tuttavia, l'argomento dell'impatto geopolitico, anche se infondato, può ostacolare una riapertura - come nel caso di Dinant-Givet che sembra fare concorrenza a un'altra linea esistente. L'impatto delle linee ad alta velocità sulle regioni limitrofe è spesso sovrastimato. In compenso, l'attuabilità del concetto dei quattro capitali (capitale fabbricato, sociale, naturale e umano) è sottovalutata nel settore dei trasporti pubblici. Le griglie d'analisi dei quattro capitali ci hanno effettivamente permesso di dimostrare l'applicabilità del concetto alle linee ferroviarie transfrontaliere, nonostante la mancanza di misurabilità di alcuni indicatori. La valutazione delle linee selezionate in supporto alla nostra griglia d'analisi mostra che le linee regionali francesi accusano un pesante ritardo in termini di prestazioni. Questo dato di fatto è confermato nei quattro capitali. Applicando il nostro metodo di pianificazione alle linee ferroviarie (transfrontaliere), si osserva che le attuali linee non sfruttano a sufficienza il loro potenziale. L'approccio proposto è basato sul triangolo «offerta / infrastrutture / materiale rotabile» e si articola attorno agli utenti. Prima di qualsiasi pianificazione, è necessario sviluppare una visione per la regione e la linea coinvolta, in cui la ferrovia servirà come asse strutturale. La visione si manifesta attraverso un orario che rifletta l'offerta desiderata a lungo termine, con tempi di percorrenza ideali e nodi di coincidenza con altri mezzi di trasporto. In questo modo, le linee regionali possono contribuire a un cambiamento di paradigma che favorisca uno stile di vita più focalizzato sui servizi di trasporto pubblico che sul trasporto individuale - anche nelle regioni limitrofe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACTNeedle fibre calcite (NFC) is one of the most widespread habits of pedogenic calcite. It is a monocrystal of calcite, in the shape of a needle, with a diameter of one micron and a length between 4 and 103 times its width. NFC occurs in soils with different macroscopic and microscopic morphologies. Macroscopically, two main habits of NFC exist: "cotton ball'Mike clusters and as "powder" coating on pebbles inside the soil. It can also act as nucleation sites for precipitation of calcite cements of purely physicochemical origin (LCC - Late Calcitic Cement). Although many studies have been conducted on needle fibre calcite, its origin remains a subject of debate. The NFC having never been reproduced in the laboratory whatever the considered approach, the processes responsible for its precipitation as a so particular morphology remain unexplained. The shift between the length orientation of the needle crystal and the normal axis of calcite growth (c-axis) is also unresolved.Samples taken in two soils observed in quarries (Villiers and Savagnier) in the Swiss Jura Mountains are used to investigate the processes involved in the formation of these calcite crystals in pedogenic environments. Three groups of microscopic morphologies are distinguished: (i) simple needles (SN), (ii) simple needles with overgrowths (SNO), and (iii) simple needles with nanofibres (SNN), nanofibres being either organic or mineral in nature. These groups correspond to different stages in the formation and evolution of NFC.Comparison of carbon and oxygen isotope compositions of NFC with LCC, in relationship with the composition of the carbonate host rock (CHR), and the carbon isotope signature of dissolved inorganic carbon (DIC) from the soil waters, indicates that both NFC and LCC are precipitated in isotopic equilibrium with the soil solution. Similar Ô13C and Ô180 values of the elongated NFC and the rhombohedral calcite crystals of the LCC suggest that the precipitation of these different calcite habits is not due to changes in physicochemical conditions. The growth of NFC crystals inside an organic mould formed by the fungal hyphae could explain the formation of calcite ciystals in the shape of a needle in isotopic equilibrium with the local environment.Strontium and calcium isotope compositions of the three microscopic groups of NFC and LCC were also studied, in order to determine the origin of calcium (Ca2+) entrapped in the calcite lattice and to elucidate the processes responsible for the precipitation of NFC. The 87Sr/86Sr ratio of the SN is closer to the 87Sr/86Sr ratio of the carbonate host rock than the LCC, SNO, and SNN. This could be another clue for the formation of SN inside fungal hyphae, because fungi are known to dissolve the rocks to release and translocate through their hyphae nutrients necessary for their growth. SN and SNN are depleted in Sr and enriched in ^Ca compared to the LCC. In the context of Villiers quarry, where the two ciystal shapes precipitate at similar temperature (in a range of 0,6°C), such variations are the result of a slower precipitation rate of NFC, which is inconsistent with a purely physicochemically precipitated elongate crystal.Finally, NFC is enriched in major and trace elements (i.e. Fe, Zn, Cu, and Mo) compared to the LCC. This enrichment is ascribed to modification in precipitation processes between the NFC and LCC. Right now, it is not possible to preclude the influence of the particular shape of NFC or the biological influence. REEs are not fractionated in NFC, contrary to LCC. Thus, NFC does not precipitate from a percolation solution circulating downward the soil, which should lead to the fractionation of the REEs. As explained above, fungi, are able to dissolve and translocate nutrients. This kind of processes allows releasing elements in the soil solution without fractionation and could explain the particular chemical signature of NFC regarding the REEs.The geochemical approach to investigate the origin of NFC presented in this study does not allow providing direct clues to the fungal origin of NFC, but brings several new insights in the understanding of the formation of such a particular mineral, calcite needles, by precluding definitively their physicochemical origin.RESUMELa calcite en aiguilles (NFC) est l'une des formes les plus ubiquiste de calcite pédogénique. Il s'agit d'un monocrystal de calcite d'un diamètre d'un micron et d'une longueur 4 à 102 fois supérieure à sa largeur. A l'échelle macroscopique, la NFC a été observée sous deux principaux aspects : l'une « cotonneuse » et l'autre formant un mince croûte autour des graviers du sol. La NFC peut également servir de support à la nucléation de ciments secondaires précipités de manière purement physico-chimique (LCC). Malgré les nombreuses études menées sur la NFC, son origine demeure encore inconnue. A ce jour, aucune expérience en laboratoire n'a permis de créer de la calcite en aiguilles, et ce, quelque soit l'approche abordée. Par conséquent, les processus précis responsables de la précipitation calcite avec une telle morphologie restent inconnus. Le décalage existant entre l'axe d'allongement des aiguilles de calcite et l'axe normal de croissance de la calcite (axe c) reste inexpliqué.Des échantillons de NFC, LCC, roche mère, eau de pluie des différents horizons du sol ont été prélevés principalement au front de deux carrières de graviers, ainsi que dans un profil de sol adjacent à ces carrières, dans le but de mieux comprendre les processus à l'origine de la précipitation de calcite en forme d'aiguille. Trois micro-morphologies ont été distinguées: les aiguilles simples (SN), les aiguilles simples avec surcroissances calcitiques (SNO) et enfin les aiguilles simples avec nanofibres (SNN), celles-ci pouvant être de minérales ou organiques. Ces groupes, d'après nos résultats et les études antérieures pourraient correspondre à différentes étapes de formation de la calcite en aiguilles.Dans un premier temps, la comparaison des signatures isotopiques de la calcite en aiguilles, du LCC, de la roche mère et du carbone inorganique dissout dans la solution du sol (CID) indique que la NFC, tout comme le LCC, précipite en équilibre avec la solution du sol. Les valeurs similaires en Ô13C et δ180 de cristaux de calcite allongés (NFC) et rhombohédriques (LCC) formés dans un même milieu suggère que ces différences morphologiques ne peuvent pas être attribuées à des modifications purement physico-chimiques. La croissance de NFC à l'intérieur d'un moule organique comme les hyphes de champignons semble être la seule hypothèse plausible permettant d'expliquer la formation de monocrystaux allongés de calcite en équilibre avec leur environnement.La composition isotopique en strontium (Sr) et calcium (Ca) des LCC et des trois micro¬morphologies de la NFC ont été étudiées également, afin de déterminer l'origine du Ca2+ présent dans le réseau cristallin de la calcite en aiguilles, ainsi que les processus responsables de la formation de NFC. Les valeurs du rapport 87Sr/86$r de la forme SN sont les plus proches de celles de la roche mère par rapport aux formes SNN et SNO et du LCC. Ceci pourrait être un nouvel indice de l'implication des champignons dans la précipitation de calcite en aiguilles, puisqu'ils sont connus pour avoir la capacité de dissoudre les roches afin de libérer les nutriments nécessaires à leur croissance, ainsi que de les transloquer par leurs hyphes. De plus, les formes SN et SNN sont appauvries en Sr et enrichies en "Ca, comparativement au LCC. Dans le sol étudié, tous les carbonates de calcium précipitent à la même température, par conséquent, de telles variations sont dues à un taux de précipitation plus lent de SN et SNN, ce qui est contradictoire avec l'hypothèse physico-chimique. Pour finir, la NFC est enrichie en certains éléments majeurs et traces (i.e. Fe, Zn, Cu et Mo) par rapport au LCC. Ceci peut être attribué à différents processus de formation entre la NFC et le LCC. Pour le moment il est impossible d'exclure l'influence de la forme particulière de la NFC ou celle du champignon. Les terres rares (REEs) ne sont pas fractionnées dans la NFC, contrairement au LCC. Ceci peut être expliqué par le fait que la NFC précipite à partir d'une solution qui n'a pas percolé à travers le sol. Les champignons en dissolvant les roches mettent en solution éléments sans les fractionner. L'approche géochimique de l'étude de la calcite en aiguilles ne permets pas de produire des preuves directes sur sa potentielle origine fongique, mais permet de mieux comprendre comment un minéral aussi singulier que la NFC peut se former. D'autre pare cette étude permets d'exclure définitivement l'hypothèse physico-chimique de l'origine de la calcite en aiguilles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le scandale de l'amiante, l'épidémie de suicides au travail ou bien encore le "karôshi" sont autant de faits qui invitent à une réflexion renouvelée sur les conditions de travail. Cette thèse part d'une volonté de revisiter, dans un monde professionnel bouleversé par les progrès constants de la technique et les pressions économiques, les liens entre santé et sécurité, telles que visées aux art. 328 CO, 6 LTr et 82 LAA. Il s'agit d'examiner l'articulation entre ces dispositions, sur la base d'une analyse historique et de l'apport actuel du système légal, et la pertinence de repenser celui-ci. En effet, le pluralisme des sources en la matière, hétérogènes de par leur nature (de droit public ou privé) et/ou de par leur objet (la santé ou la sécurité), et le manque d'harmonie entre elles ne sont pas sans créer difficultés d'application et doubles emplois. La présente thèse commence par quelques repères chronologiques sur la mise en place progressive et pragmatique de la législation sociale suisse. Suit un survol des lois protectrices et autres normativités extra-juridiques, qui laisse conclure à un foisonnement et à une hétérogénéité des sources applicables. Puis, les trois dispositions générales topiques, à savoir les articles 328 CO, 6 LTr et 82 LAA, font successivement l'objet d'un examen détaillé, en vue d'évaluer leur bien-fondé respectif et la pertinence d'une approche compartimentée de la santé et sécurité au travail. Et donc de conclure par une réflexion sur l'intérêt d'un changement, notamment par la suppression du dualisme LTr / LAA.