999 resultados para Outils diagnostiques
Resumo:
Mise au point sur le hotter implantable (Reveal®). Connaissances actuelles et implications thérapeutiques. La syncope est un problème fréquent touchant environ un tiers des adultes durant leur vie. C'est un motif de consultation habituel aux urgences et ses causes sont souvent multiples et rendent son diagnostic difficile. Malgré des investigations extensives et coûteuses la cause syncopale reste dans environ 30% des cas d'étiologie indéterminée. Les progrès récents dans le monitoring cardiaque à long terme ont permis d'inclure dans le choix des tests diagnostiques un outil très intéressant dans l'investigation de la syncope d'étiologie indéterminée (SOI). Il s'agit du moniteur ECG implantable (MEI) ou Reveal®. Il y a un peu plus de 10 ans un prototype de MEI a été implanté dans un petit collectif de patients souffrants de SOI récidivantes et a permis d'établir un diagnostic chez la plupart d'entre eux. Dès lors le système s'est modernisé avec une diminution importante de la taille et du poids permettant actuellement d'enregistrer le rythme cardiaque sur une durée de 18 à 24 mois. Le système peut stocker dans sa mémoire un tracé ECG soit à l'aide d'un activateur externe déclenché par le patient, soit de façon spontanée en présence d'un rythme cardiaque lent ou rapide. Son implantation se fait en anesthésie locale, en position sous-cutanée pectorale gauche. Les complications et les problèmes infectieux sont rares. Plusieurs études récentes se sont intéressées à l'apport diagnostique du MEI dans la prise en charge de la SOI. La plus grande porte sur un collectif de 206 patients. L'apport diagnostique des différentes études varie de 40% à 64%. Cependant la plupart de ces études ne comportaient pas de prise en charge standardisée ou avaient des critères d'inclusion précis. Nous nous sommes intéressés aux résultats de notre prise en charge de la syncope au cours de ces 6 dernières années. Une consultation spécialisée de la syncope a été mise en place en 1999. La consultation offre l'accès à tout le plateau technique propre à l'investigation de syncopes à savoir un tilt-test avec mesure continue non invasive de la pression artérielle, examens échocardiographiques et test d'effort. Si nécessaire, le bilan peut être complété par une étude électrophysiologique (EEP) et/ou une coronarographie: Tous les patients bénéficient d'une anamnèse ciblée suivi d'un examen clinique et d'un électrocardiogramme. Une échocardiographie n'est effectuée qu'en cas de suspicion de cardiopathie sous-jacente. Un holter ou R-test ne sont réalisés qu'en présence de syncopes ou palpitations fréquentes. Les investigations se poursuivent par un tilt test suivi d'un massage du sinus carotidien en position debout et couchée. Un test d'hyperventilation n'est pratiqué que chez les patients avec traits phobiques, dépressifs ou troubles de type panique. L'EEP n'est pratiquée que chez les patients dont la syncope reste d'étiologie indéterminée après investigations initiales et chez ceux souffrant d'une cardiopathie sous jacente documentée ; elle est aussi indiquée chez ceux dont le coeur est normal mais chez qui la syncope est associée à des traumatismes ou à l'origine d'un accident de voiture. Le MEI est proposé lorsque toutes les investigations initiales restent négatives, généralement chez les sujets ayant souffert de plus d'une syncope ou de complications sérieuses. Notre expérience pratique d'une consultation de la syncope ouverte au tout venant nous montre qu'une prise en charge standardisée non invasive permet d'identifier une cause syncopale chez plus de 60% des patients. Chez les patients souffrant de syncopes récidivantes ou traumatiques d'étiologie indéterminée après investigations conventionnelles, l'apport diagnostique du MEI est élevé (64%) durant un suivi moyen de 9 mois, ce qui permet d'identifier certaines causes syncopales écartées précédemment par des tests ciblés. Parmi ces dernières, retenons plus particulièrement les tachycardies nodales et crises d'épilepsie.
Resumo:
Highly diverse radiolarian faunas of latest Maastrichtian to early Eocene age have been recovered from the low latitude realm in order to contribute to the clarification of radiolarian taxonomy, construct a zonation based on a discrete sequence of co-existence intervals of species ranging from the late Paleocene to early Eocene and to describe a rich low latitude latest Cretaceous to late Paleocene fauna. 225 samples of late Paleocene to early Eocene age have been collected from ODP Leg 171 B-Hole 1051 A (Blake Nose), DSDP Leg 43-Site 384 (Northwest Atlantic) and DSDP Leg 10-Sites 86, 94, 95, 96. Sequences consist of mainly pelagic oozes and chalks, with some clay and ash layers. A new imaging technique is devised to perform (in particular on topotypic material) both transmitted light microscopy and SEM imaging on individual radiolarian specimens. SEM precedes transmitted light imaging. Radiolarians are adhered to a cover slip (using nail varnish) which is secured to a stub using conductive levers. Specimens are then photographed in low vacuum (40-50Pa; 0.5mbar), which enables charge neutralization by ionized molecules of the chamber atmosphere. Thus gold coating is avoided and subsequently this allows transmitted light imaging to follow. The conductive levers are unscrewed and the cover slip is simply overturned and mounted with Canada balsam. In an attempt towards a post-Haeckelian classification, the initial spicule (Entactinaria), micro- or macrosphere (Spumellaria) and initial spicule and cephalis (Nassellaria) have been studied by slicing Entactinaria and Spumellaria, and by tilting Nassellaria in the SEM chamber. A new genus of the family Coccodiscidae is erected and Spongatractus HAECKEL is re-located to the subfamily Axopruinae. The biochronology has been carried out using the Unitary Association Method (Guex 1977, 1991). A database recording the occurrences of 112 species has been used to establish a succession of 22 Unitary Associations. Each association is correlated to chronostratigraphy via calcareous microfossils that were previously studied by other authors. The 22 UAs have been united into seven Unitary Associations Zones (UAZones) (JP10- JE4). The established zones permit to distinguish supplementary subdivisions within the existing zonation. The low-latitude Paleocene radiolarian zonation established by Sanfilippo and Nigrini (1998a) is incomplete due to the lack of radiolarian-bearing early Paleocene sediments. In order to contribute to the study of sparsely known low latitude early Paleocene faunas, 80 samples were taken from the highly siliceous Guayaquil Formation (Ecuador). The sequence consists of black cherts, shales, siliceous limestones and volcanic ash layers. The carbonate content increases up section. Age control is supplied by sporadic occurrences of silicified planktonic foraminifera casts. One Cretaceous zone and seven Paleocene zones have been identified. The existing zonation for the South Pacific can be applied to the early-early late Paleocene sequence, although certain marker species have significantly shorter ranges (notably Buryella foremanae and B. granulata). Despite missing marker species in the late Paleocene, faunal distribution correlates reasonably to the Low-Latitude zonation. An assemblage highly abundant in Lithomelissa, Lophophaena and Cycladophora in the upper RP6 zone (correlated by the presence of Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus and Stylotrochus nitidus) shows a close affinity to contemporaneous faunas reported from Site 1121, Campbell Plateau. Coupled with a high diatom abundance (notably Aulacodiscus spp. and Arachnoidiscus spp.), these faunas are interpreted as reflecting a period of enhanced biosiliceous productivity during the late Paleocene. The youngest sample is void of radiolarians, diatoms and sponge spicules yet contains many pyritized infaunal benthic foraminifera which are akin to the midway-type fauna. The presence of this fauna suggests deposition in a neritic environment. This is in contrast to the inferred bathyal slope depositional environment of the older Paleocene sediments and suggests a shoaling of the depositional environment which may be related to a coeval major accretionary event. RESUME DE LA THESE Des faunes de radiolaires de basses latitudes très diversifiées d'âge Maastrichtien terminal à Eocène inférieur, ont été étudiées afin de contribuer à la clarification de leur taxonomie, de construire une biozonation basée sur une séquence discrète d'intervalles de coexistence des espèces d'age Paléocène supérieur à Eocène inférieur et de décrire une riche faune de basse latitude allant du Crétacé terminal au Paléocène supérieur. L'étude de cette faune contribue particulièrement à la connaissance des insaisissables radiolaires de basses latitudes du Paléocène inférieur. 225 échantillons d'âge Paléocène supérieur à Eocène inférieur provenant des ODP Leg 171B-Site 1051A (Blake Nose), Leg DSDP 43-Site 384 (Atlantique Nord -Ouest) et des DSDP Leg 10 -Sites 86, 94, 95, 96, ont été étudiés. Ces séquences sont constituées principalement de « ooze » et de « chalks »pélagiques ainsi que de quelques niveaux de cendres et d'argiles. Une nouvelle technique d'imagerie a été conçue afin de pouvoir prendre conjointement des images en lumière transmise et au Microscope Electronique à Balayage (MEB) de spécimens individuels. Ceci à été particulièrement appliqué à l'étude des topotypes. L'imagerie MEB précède l'imagerie en lumière transmise. Les radiolaires sont collés sur une lame pour micropaléontologie (au moyen de vernis à ongles) qui est ensuite fixée à un porte-objet à l'aide de bras métalliques conducteurs. Les spécimens sont ensuite photographiés en vide partiel (40-50Pa; 0.5mbar), ce qui permet la neutralisation des charges électrostatiques dues à la présence de molécules ionisées dans l'atmosphère de la chambre d'observation. Ainsi la métallisation de l'échantillon avec de l'or n'est plus nécessaire et ceci permet l'observation ultérieure en lumière transmise. Les bras conducteurs sont ensuite dévissés et la lame est simplement retournée et immergée dans du baume du Canada. Dans une approche de classification post Haeckelienne, le spicule initial (Entactinaires), la micro- ou macro -sphère (Spumellaires) et le spicule initial et cephalis (Nassellaires) ont été étudiés. Ceci a nécessité le sectionnement d'Entactinaires et de Spumellaires, et de pivoter les Nassellaires dans la chambre d'observation du MEB. Un nouveau genre de la Famille des Coccodiscidae a été érigé et Spongatractus HAECKEL à été réassigné à la sous-famille des Axopruninae. L'analyse biostratigraphique à été effectuée à l'aide de la méthode des Associations Unitaires {Guex 1977, 1991). Une base de données enregistrant les présences de 112 espèces à été utilisée poux établir une succession de 22 Associations Unitaires. Chaque association est corrélée à la chronostratigraphie au moyen de microfossiles calcaires précédemment étudiés par d'autres auteurs. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (UAZones) (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. La zonation de basses latitudes du Paléocène établie par Sanfilippo et Nigrini (1998a) est incomplète due au manque de sédiments du Paléocène inférieur contenant des radiolaires. Afin de contribuer à l'étude des faunes peu connues des basses latitudes du Paléocène inférieur, 80 échantillons ont été prélevés d'une section siliceuse de la Formation de Guayaquil (Equateur). La séquence est composée de cherts noirs, de shales, de calcaires siliceux et de couches de cendres volcaniques. La fraction carbonatée augmente vers le haut de la section. Des contraintes chronologiques sont fournies par la présence sporadique de moules de foraminifères planctoniques. Une zone d'intervalles du Crétacé et sept du Paléocène ont été mises en évidence. Bien que certaines espèces marqueur ont des distributions remarquablement plus courtes (notamment Buryella foremanae et B. granulata), la zonation existante pour le Pacifique Sud est applicable à la séquence d'age Paléocène inférieure à Paléocène supérieur basal étudiée. Malgré l'absence d'espèces marqueur du Paléocène supérieur, la succession faunistique se corrèle raisonnablement avec la zonation pour les basses latitudes. Un assemblage contenant d'abondants représentant du genre Lithomelissa, Lophophaena et Cycladophora dans la zone RP6 (correlée par la présence de Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus et Stylotrochus nitidus) montre une grande similitude avec certaines faunes issues des hauts latitudes et d'age semblable décrites par Hollis (2002, Site 1121, Campbell Plateau). Ceci, en plus d'une abondance importante en diatomés (notamment Aulacodiscus spp. et Arachnoidiscus spp.) nous mènent à interpréter cette faune comme témoin d'un épisode de productivité biosiliceuse accrue dans le Paléocène supérieur. L'échantillon le plus jeune, dépourvu de radiolaires, de diatomés et de spicules d'éponge contient de nombreux foraminifères benthiques infaunaux pyritisés. Les espèces identifiées sont caractéristiques d'une faune de type midway. La présence de ces foraminifères suggère un environnement de type néritique. Ceci est en contraste avec l'environnement de pente bathyale caractérisent les sédiments sous-jacent. Cette séquence de diminution de la tranche d'eau peut être associée à un événement d'accrétion majeure. RESUME DE LA THESE (POUR LE GRAND PUBLIC) Les radiolaires constituent le groupe de plancton marin le plus divers et le plus largement répandu de l'enregistrement fossile. Un taux d'évolution rapide et une variation géographique considérable des populations font des radiolaires un outil de recherche sans égal pour la biostratigraphie et la paléocéanographie. Néanmoins, avant de pouvoir les utiliser comme outils de travail, il est essentiel d'établir une solide base taxonomique. L'étude des Radiolaires peut impliquer plusieurs techniques d'extraction, d'observation et d'imagerie qui sont dépendantes du degré d'altération diagénétique des spécimens. Le squelette initial, qu'il s'agisse d'un spicule initial (Entactinaria), d'une micro- ou macro -sphère (Spumellaria) ou d'un spicule initial et d'un cephalis (Nassellaria), est l'élément le plus constant au cours de l'évolution et devrait représenter le fondement de la systématique. Des échantillons provenant de carottes de basses latitudes du Deep Sea Drilling Project et de l' Ocean Drilling ont été étudiés. De nouvelles techniques d'imagerie et de sectionnement ont été développées sur des topotypes de radiolaires préservés en opale, dans le but d'étudier les caractéristiques de leur squelette initial qui n'étaient pas visibles dans leur illustration originale. Ceci aide entre autre à comparer des spécimens recristallisés en quartz, provenant de terrains accrétés, avec les holotypes en opale de la littérature. La distribution des espèces étudiés a fourni des données biostratigraphiques qui ont été compilées à l'aide de la méthode des Associations Unitaires (Guez 1977, 1991). Il s'agit d'un modèle mathématique déterministe conçu pour exploiter la totalité de l'assemblage plutôt que de se confiner à l'utilisation de taxons marqueurs individuels. Une séquence de 22 Associations Unitaires a été établie pour la période allant du Paléocène supérieur à l'Éocène inférieur. Chaque Association Unitaire a été corrélée à l'échelle de temps absolue à l'aide de microfossiles calcaires. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. Les radiolaires du Paléocène inférieur à moyen des basses latitudes sont rares. Les meilleures sections connues se trouvent dans les hautes latitudes (Nouvelle Zélande). Quelques assemblages épars ont été mentionnés par le passé en Californie, en Équateur et en Russie. Une séquence siliceuse de 190 mètres dans la Formation de Guayaquil (Équateur), s'étendant du Maastrichtien supérieur au Paléocène supérieur, a fourni des faunes relativement bien préservées. L'étude de ces faunes a permis de mettre en évidence la première séquence complète de radiolaires de basses latitudes dans le Paléocène inférieure. Huit zones allant du Crétacé terminal au Paléocène supérieur ont pu être appliqués et la présence de foraminifères planctoniques a fournie plusieurs points d'attache chronologiques. Dans le Paléocène supérieur, un riche assemblage contenant d'abondants diatomés et radiolaires ayant des similitudes faunistiques marquantes avec des assemblages de hautes latitudes de Nouvelle Zélande, témoigne d'un épisode de productivité biosiliceuse accrue pendant cette période. Étant donné que la pointe du continent sud-américain et l'Antarctique étaient plus proches au cours du Paléocène, ce phénomène peut être expliqué par le transport, le long de la côte ouest de l'Amérique du Sud, d'eaux riches en nutriments en provenance de l'Océan Antarctique. Suite à cet épisode, l'enregistrement en radiolaires est interrompu. Ceci peut être associé à des événements tectoniques régionaux qui ont eu pour effet de diminuer la tranche d'eau relative, rendant l'environnement plus favorable aux foraminifères benthiques qui sont abondamment présents dans l'échantillon le plus jeune de la séquence.
Resumo:
Cette étude se fonde sur des recherches ethnographiques menées autour de la mise en oeuvre d'une politique publique de gestion de la nature à Tobré, une région baatonu au Bénin. L'étude se place dans une dynamique d'appropriation des ressources naturelles en rapport avec l'entrée en jeu de multiples acteurs publics et privés dans l'arène locale de gestion de la nature. En effet, ces acteurs ont acquis ces dernières années de l'expérience et de l'efficacité à la faveur des changements institutionnels et politiques et s'incluent davantage dans le processus de décision au point de suppléer l'Etat dans les actions qui étaient ses prérogatives. L'étude met en lumière les rapports de conflits, de compétitions, de concurrence ou de compromis autour des enjeux sociaux, politiques et économiques de protection de la nature. Elle décrit et analyse les formes d'interactions entre les différents acteurs individuels, collectifs et institutionnels, afin de voir en quoi ces interactions participent du processus de mobilisation d'acteurs locaux et de confrontation de vision, qui finalement définit et oriente les politiques locales de protection de la nature. Pour atteindre cet objectif, l'étude mobilise des apports théoriques de plusieurs disciplines, notamment de la socio- anthropologie du développement, de l'histoire et de la sociologie politique. Elle repose également sur des données empiriques collectées à partir d'une combinaison d'outils techniques, des entretiens et des observations jusqu'au dépouillement de presse et des études de cas. Les principaux résultats montrent que les acteurs locaux, particulièrement les comités de gestion sont parvenus à inscrire la gestion des ressources naturelles dans l'espace public à travers les débats dans les médias, les forums, les marches de protestation, etc. De fait, ils ont été capables d'influer sur le processus de définition et de mise en oeuvre des politiques locales de protection de la nature et donc de reconfigurer l'arène locale de gestion des ressources naturelles. Ce qui amène l'Etat et ses services déconcentrés, en premier lieu les services des Eaux et Forêts et la mairie à pactiser avec ces différents comités, sans pour autant perdre de leur notoriété. Au contraire, ils participent de la gouvernance de l'ensemble des actions et permettent de mettre en place des formes de gestion négociée. - This is an ethnographic research on the implementation of a public policy for the management of natural resources in Tobre, a baatonu village in Benin. The study focuses on the dynamic of natural resources ownership in a context of multiple stakeholders in the public and private sectors. In recent years, these stakeholders have become more experienced and efficient as a result of several institutional and policy changes. The stakeholders are more involved in the decision making process to the point that they can complement the role of the State in natural resources management. This study highlights the conflicts, competition, or compromise associated with the social, political and economic constraints of nature conservation. The interactions between individual, collective and institutional stakeholders were analyzed, to understand their role in the process of mobilizing local stakeholders and confronting their visions. This process ultimately defines and guides local policies on the management of nature. To achieve this goal, this study combined theoretical approaches from developmental socio-anthropology, history and political sociology with empirical data collected using interviews, observations, newspapers analysis and case studies. The results show that local stakeholders, particularly the management committees, were successful at introducing the need for sustainable natural resource management in the mainstream public discourse through the media, forums, and demonstrations. They were able to influence the process of identifying and implementing local policies on nature conservancy. This has encouraged the State, through its forestry services, and the district mayors to collaborate with these committees in the shared governance of natural resources.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.
Resumo:
Polyphosphate (iPOP) is a linear polymer of orthophosphate units linked together by high energy phosphoanhydride bonds. It is found in all organisms, localized in organelles called acidocalcisomes and ranges from a few to few hundred monomers in length. iPOP has been found to play a vast array of roles in all organisms, including phosphate and energy metabolism, regulation of enzymes, virulence, pathogenicity, bone remodelling and blood clotting, among many others. Recently it was found that iPOP levels were increased in myeloma cells. The growing interest in iPOP in human cell lines makes it an interesting molecule to study. However, not much is known about its metabolism in eukaryotes. Acidocalcisomes are electron dense, acidic organelles that belong to the group of Lysosome Related Organelles (LROs). The conservation of acidocalcisomes among all kingdoms of life is suggestive of their important roles for the organisms. However, they are difficult to analyse because of limited biochemical tools for investigation. Yeast vacuoles present remarkable similarities to acidocalcisomes in terms of their physiological and structural features, including synthesis and storage of iPOP, which make them an ideal candidate to study biological processes which are shared between vacuoles and acidocalcisomes. The availability of tools for genetic manipulation and isolation of vacuoles makes yeast a candidate of choice for the characterization of iPOP synthesis in eukaryotes. Our group has identified the Vacuolar Transporter Chaperone (VTC) complex as iPOP polymerase and identified the catalytic subunit (Vtc4). The goal of my study was to characterize the process of iPOP synthesis by isolated vacuoles and to reconstitute iPOP synthesis in liposomes. The first step was to develop a method for monitoring iPOP by isolated vacuoles over time and comparing it with previously known methods. Next, a detailed characterization was performed to determine the modulators of the process, both for intact as well as solubilized vacuoles. Finally, attempts were made to purify the VTC complex and reconstitute it in liposomes. A parallel line of study was the translocation and storage of synthesized iPOP in the lumen of the vacuoles. As a result of this study, it is possible to determine distinct pools of iPOP- inside and outside the vacuolar lumen. Additionally, I establish that the vacuolar lysate withstands harsh steps during reconstitution on liposomes and retains iPOP synthesizing activity. The next steps will be purification of the intact VTC complex and its structure determination by cryo-electron microscopy. - Les organismes vivants sont composés d'une ou plusieurs cellules responsables des processus biologiques élémentaires tels que la digestion, la respiration, la synthèse et la reproduction. Leur environnement interne est en équilibre et ils réalisent un très grand nombre de réactions chimiques et biochimiques pour maintenir cet équilibre. A différents compartiments cellulaires, ou organelles, sont attribuées des tâches spécifiques pour maintenir les cellules en vie. L'étude de ces fonctions permet une meilleure compréhension de la vie et des organismes vivants. De nombreux processus sont bien connus et caractérisés mais d'autres nécessitent encore des investigations détaillées. L'un de ces processus est le métabolisme des polyphosphates. Ces molécules sont des polymères linéaires de phosphate inorganique dont la taille peut varier de quelques dizaines à quelques centaines d'unités élémentaires. Ils sont présents dans tous les organismes, des bactéries à l'homme. Ils sont localisés principalement dans des compartiments cellulaires appelés acidocalcisomes, des organelles acides observés en microscopie électronique comme des structures denses aux électrons. Les polyphosphates jouent un rôle important dans le stockage et le métabolisme de l'énergie, la réponse au stress, la virulence, la pathogénicité et la résistance aux drogues. Chez l'homme, ils sont impliqués dans la coagulation du sang et le remodelage osseux. De nouvelles fonctions biologiques des polyphosphates sont encore découvertes, ce qui accroît l'intérêt des chercheurs pour ces molécules. Bien que des progrès considérables ont été réalisés afin de comprendre la fonction des polyphosphates chez les bactéries, ce qui concerne la synthèse, le stockage et la dégradation des polyphosphates chez les eucaryotes est mal connu. Les vacuoles de la levure Saccharomyces cerevisiae sont similaires aux acidocalcisomes des organismes supérieurs en termes de structure et de fonction. Les acidocalcisomes sont difficiles à étudier car il n'existe que peu d'outils génétiques et biochimiques qui permettent leur caractérisation. En revanche, les vacuoles peuvent être aisément isolées des cellules vivantes et manipulées génétiquement. Les vacuoles comme les acidocalcisomes synthétisent et stockent les polyphosphates. Ainsi, les découvertes faites grâce aux vacuoles de levures peuvent être extrapolées aux acidocalcisomes des organismes supérieurs. Le but de mon projet était de caractériser la synthèse des polyphosphates par des vacuoles isolées. Au cours de mon travail de thèse, j'ai mis au point une méthode de mesure de la synthèse des polyphosphates par des organelles purifés. Ensuite, j'ai identifié des composés qui modulent la réaction enzymatique lorsque celle-ci a lieu dans la vacuole ou après solubilisation de l'organelle. J'ai ainsi pu mettre en évidence deux groupes distincts de polyphosphates dans le système : ceux au-dehors de la vacuole et ceux en-dedans de l'organelle. Cette observation suggère donc très fortement que les vacuoles non seulement synthétisent les polyphosphates mais aussi transfère les molécules synthétisées de l'extérieur vers l'intérieur de l'organelle. Il est très vraisemblable que les vacuoles régulent le renouvellement des polyphosphates qu'elles conservent, en réponse à des signaux cellulaires. Des essais de purification de l'enzyme synthétisant les polyphosphates ainsi que sa reconstitution dans des liposomes ont également été entrepris. Ainsi, mon travail présente de nouveaux aspects de la synthèse des polyphosphates chez les eucaryotes et les résultats devraient encourager l'élucidation de mécanismes similaires chez les organismes supérieurs. - Les polyphosphates (iPOP) sont des polymères linéaires de phosphates inorganiques liés par des liaisons phosphoanhydres de haute énergie. Ces molécules sont présentes dans tous les organismes et localisées dans des compartiments cellulaires appelés acidocalcisomes. Elles varient en taille de quelques dizaines à quelques centaines d'unités phosphate. Des fonctions nombreuses et variées ont été attribuées aux iPOP dont un rôle dans les métabolismes de l'énergie et du phosphate, dans la régulation d'activités enzymatiques, la virulence, la pathogénicité, le remodelage osseux et la coagulation sanguine. Il a récemment été montré que les cellules de myélome contiennent une grande quantité de iPOP. Il y donc un intérêt croissant pour les iPOP dans les lignées cellulaires humaines. Cependant, très peu d'informations sur le métabolisme des iPOP chez les eucaryotes sont disponibles. Les acidocalcisomes sont des compartiments acides et denses aux électrons. Ils font partie du groupe des organelles similaires aux lysosomes (LROs pour Lysosome Related Organelles). Le fait que les acidocalcisomes soient conservés dans tous les règnes du vivant montrent l'importance de ces compartiments pour les organismes. Cependant, l'analyse de ces organelles est rendue difficile par l'existence d'un nombre limité d'outils biochimiques permettant leur caractérisation. Les vacuoles de levures possèdent des aspects structuraux et physiologiques très similaires à ceux des acidocalcisomes. Par exemple, ils synthétisent et gardent en réserve les iPOP. Ceci fait des vacuoles de levure un modèle idéal pour l'étude de processus biologiques conservés chez les vacuoles et les acidocalcisomes. De plus, la levure est un organisme de choix pour l'étude de la synthèse des iPOP compte-tenu de l'existence de nombreux outils génétiques et la possibilité d'isoler des vacuoles fonctionnelles. Notre groupe a identifié le complexe VTC (Vacuole transporter Chaperone) comme étant responsable de la synthèse des iPOP et la sous-unité Vtc4p comme celle possédant l'activité catalytique. L'objectif de cette étude était de caractériser le processus de synthèse des iPOP en utilisant des vacuoles isolées et de reconstituer la synthèse des iPOP dans des liposomes. La première étape a consisté en la mise au point d'un dosage permettant la mesure de la quantité de iPOP synthétisés par les organelles isolés en fonction du temps. Cette nouvelle méthode a été comparée aux méthodes décrites précédemment dans la littérature. Ensuite, la caractérisation détaillée du processus a permis d'identifier des composés modulateurs de la réaction à la fois pour des vacuoles intactes et des vacuoles solubilisées. Enfin, des essais de purification du complexe VTC et sa reconstitution dans des liposomes ont été entrepris. De façon parallèle, une étude sur la translocation et le stockage des iPOP dans le lumen des vacuoles a été menée. Il a ainsi été possible de mettre en évidence différents groupes de iPOP : les iPOP localisés à l'intérieur et ceux localisés à l'extérieur des vacuoles isolées. De plus, nous avons observé que le lysat vacuolaire n'est pas détérioré par les étapes de reconstitution dans les liposomes et conserve l'activité de synthèse des iPOP. Les prochaines étapes consisteront en la purification du complexe intact et de la détermination de sa structure par cryo-microscopie électronique.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Le management des organisations publiques a considérablement évolué durant ces dernières trois ou quatre dernières décennies : pression accrue sur les résultats, accroissement de l'autonomie dans l'utilisation des ressources et la fixation de priorités, exigences élevées en matière d'accountability, intérêt des citoyens et des médias pour les décisions et l'action publiques, etc. Des outils de management issus pour partie de l'économie privée et pour l'autre développés spécifiquement pour le secteur public ont complété la palette instrumentale à disposition des managers publics. Parmi ces outils, la communication joue un rôle important tant à l'intérieur de l'organisation que par rapport à l'ensemble de ses partenaires et de la collectivité en général. En effet, les responsables de l'action publique doivent de manière croissante présenter les enjeux de politiques publiques, expliquer les décisions prises, justifier des mesures correspondantes et être à l'écoute des besoins et demandes formulés par les bénéficiaires des prestations.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Messages à retenir: Le scanner peut aider au diagnostic et la caractérisation des valvulopathies et des lésions associées (aorte, coronaires). Le scanner est un examen incontournable pour l'évaluation pré-thérapeutique des procédures TAVI (transfémorale ou transapicale). Le scanner peut être utile pour caractériser les insuffisances aortiques. Grâce aux développements récents dans les thérapies peu invasives et au progrès du CT, le rôle du radiologue est redevenu central dans la prise en charge de certaines valvulopathies aortiques. Résumé: Les valvulopathies aortiques sont des maladies fréquentes. Leur exploration repose largement sur l'échocardiographie et sur l'IRM. Les progrès technologiques en scanner cardiaque ont permis à ce dernier d'explorer la valve aortique et ses pathologies. Ce cours est principalement consacré aux méthodes d'acquisition et de traitement des images dédiées à l'exploration de la valve aortique (plan de coupes, planimétrie, scores...). Une attention particulière est réservée aux considérations anatomiques spécifiques à celle-ci (variantes anatomiques). Les indications du scanner cardiaque dans les valvulopathies seront résumées (sténoses, insuffisances, pathologie tumorale et pathologies inflammatoires). Dans la sténose de la valve, outre ses performances diagnostiques, le scanner plus ou moins couplé à l'exploration des vaisseaux périphériques, est devenu une méthode intournable dans le bilan pré-thérapeutique. La connaissance des paramètres à évaluer (taille de l'anneau, position des coronaires, orientation du plan de la valve...) et la standardisation des mesures sont un élément clé pour une prise en charge optimale. Dans les insuffisances aortiques, les méthodes de quantification (planimétrie) peuvent être utilisées pour les caractériser avec des performances comparables à celles obtenues par d'autres techniques.
Resumo:
L'analyse de l'activité reste le principal garant d'une bonne évaluation de la situation de travail et de l'environnement psychosocial. Elle permet de donner du contenu, de la substance et ainsi d'expliquer les données récoltées par questionnaire. Lors d'études à petite échelle et dans un contexte d'activité spécifique, l'analyse de l'activité devrait toujours accompagner l'utilisation d'autres outils d'évaluation. En effet, on voit ici que les échelles de Karasek ne traduisent pas toujours la réalité des diverses situations de travail, et l'autonomie décisionnelle de Karasek n'est ici pas un bon révélateur des possibilités d'ajustement et de la marge de manoeuvre. Ces échelles ont été initialement conçues pour être utilisées lors d'études épidémiologiques et donc sur de grandes populations où la spécificité de certaines activités influencerait ainsi moins le résultat global. Leur utilisation de façon plus ou moins abusive sur d'autres types de populations doit être questionnée
Resumo:
Dans cet article, nous présenterons le modèle biopsychosocial du trouble de ln personnalité borderline et le mettrons en lien avec les critères développés dans les manuels diagnostiques (DSM-IV-TR, CIM-10). Seront ensuite e:rplicité les principaux cadres de prise en charge de la thérapie comportementale- dialectique (TCD), tels que conçus par Marsha M. Linehan. Le modèle des dimensions de l'ouverture émotionnelle permettra d'enrichir la conceptualisation des émotions de la TCD. Nous insisterons particulièrement sur le groupe thérapeutique de Gestion des Émotions, inspiré des principes constitutifs de la TCD. Les premiers résultats d'une étude pilote et la présentation d'une étude randomisée contrôlée seront discutés, en tenant compte des exigences cliniques et des considérations méthodologiques de l'évaluation des psychothérapies.
Resumo:
Chemosensory receptor gene families encode divergent proteins capable of detecting a huge diversity of environmental stimuli that are constantly changing over evolutionary time as organisms adapt to distinct ecological niches. While olfaction is dedicated to the detection of volatile compounds, taste is key to assess food quality for nutritional value and presence of toxic substances. The sense of taste also provides initial signals to mediate endocrine regulation of appetite and food metabolism and plays a role in kin recognition. The fruit fly Drosophila melanogaster is a very good model for studying smell and taste because these senses are very important in insects and because a broad variety of genetic tools are available in Drosophila. Recently, a family of 66 chemosensory receptors, the Ionotropic Receptors (IRs) was described in fruit flies. IRs are distantly related to ionotropic glutamate receptors (iGluRs), but their evolutionary origin from these synaptic receptors is unclear. While 16 IRs are expressed in the olfactory system, nothing is known about the other members of this repertoire. In this thesis, I describe bioinformatic, expression and functional analyses of the IRs aimed at understanding how these receptors have evolved, and at characterising the role of the non-olfactory IRs. I show that these have emerged at the basis of the protostome lineage and probably have acquired their sensory function very early. Moreover, although several IRs are conserved across insects, there are rapid and dramatic changes in the size and divergence of IR repertoires across species. I then performed a comprehensive analysis of IR expression in the larva of Drosophila melanogaster, which is a good model to study taste and feeding mechanisms as it spends most of its time eating or foraging. I found that most of the divergent members of the IR repertoire are expressed in both peripheral and internal gustatory neurons, suggesting that these are involved in taste perception. Finally, through the establishment of a new neurophysiological assay in larvae, I identified for the first time subsets of IR neurons that preferentially detect sugars and amino acids, indicating that IRs might be involved in sensing these compounds. Together, my results indicate that IRs are an evolutionarily dynamic and functionally versatile family of receptors. In contrast to the olfactory IRs that are well-conserved, gustatory IRs are rapidly evolving species-specific receptors that are likely to be involved in detecting a wide variety of tastants. - La plupart des animaux possèdent de grandes familles de récepteurs chimiosensoriels dont la fonction est de détecter l'immense diversité de composés chimiques présents dans l'environnement. Ces récepteurs évoluent en même temps que les organismes s'adaptent à leur écosystème. Il existe deux manières de percevoir ces signaux chimiques : l'olfaction et le goût. Alors que le système olfactif perçoit les composés volatiles, le sens du goût permet d'évaluer, par contact, la qualité de la nourriture, de détecter des substances toxiques et de réguler l'appétit et le métabolisme. L'un des organismes modèles les plus pertinents pour étudier le sens du goût est le stade larvaire de la mouche du vinaigre Drosophila melanogaster. En effet, la principale fonction du stade larvaire est de trouver de la nourriture et de manger. De plus, il est possible d'utiliser tous les outils génétiques développés chez la drosophile. Récemment, une nouvelle famille de 66 récepteurs chimiosensoriels appelés Récepteurs Ionotropiques (IRs) a été découverte chez la drosophile. Bien que leur orogine soit peu claire, ces récepteurs sont similaires aux récepteurs ionotropiques glutamatergiques impliqués dans la transmission synaptique. 16 IRs sont exprimés dans le système olfactif de la mouche adulte, mais pour l'instant on ne connaît rien des autres membres de cette famille. Durant ma thèse, j'ai effectué des recherches sur l'évolution de ces récepteurs ainsi que sur l'expression et la fonction des IRs non olfactifs. Je démontre que les IRs sont apparus chez l'ancêtre commun des protostomiens et ont probablement acquis leur fonction sensorielle très rapidement. De plus, bien qu'un certain nombre d'IRs olfactifs soient conservés chez les insectes, d'importantes variations dans la taille et la divergence des répertoires d'IRs entre les espèces ont été constatées. J'ai également découvert qu'un grand nombre d'IRs non olfactifs sont exprimés dans différents organes gustatifs, ce qui leur confère probablement une fonction dans la perception des goûts. Finalement, pour la première fois, des neurones exprimant des IRs ont été identifiés pour leur fonction dans la perception de sucres et d'acides aminés chez la larve. Mes résultats présentent les IRs comme une famille très dynamique, aux fonctions très variées, qui joue un rôle tant dans l'odorat que dans le goût, et dont la fonction est restée importante tout au long de l'évolution. De plus, l'identification de neurones spécialisés dans la perception de certains composés permettra l'étude des circuits neuronaux impliqués dans le traitement de ces informations.
Resumo:
Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.