250 resultados para Indicateurs de mouvements
Resumo:
Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.
Resumo:
Introduction: L'évaluation de la fonction de l'épaule à l'aide de capteurscinématiques embarqués produit des mesures discriminatives etsensibles au changement. Cependant, la réalisation pratique reste tropcomplexe pour l'utilisation courante. L'objectif de cette étude était dedévelopper une méthode d'évaluation cinématique simplifié et efficace.Méthode : Une analyse secondaire a été effectuée sur les donnéesd'un score de référence, basé sur la réalisation de 7 mouvements.Trente-cinq patients ont été mesurés à l'aide d'accéléromètreset de gyroscopes en préopératoire, ainsi qu'à 3, 6 et 12mois après chirurgie de l'épaule. Les mouvements essentiels ontété identifiés à l'aide une analyse en composantes principales(ACP). Une méthode d'évaluation simplifiée a ensuite été élaboréeen effectuant des régressions multiples des mouvementssélectionnées versus le score de référence à 3 mois. Les résultatsdu score simplifié ont été comparés au score de référence paranalyse statistique (ANOVA à mesure double répétées, régressionlinéaire, taille de l'effet, limite de l'agrément et corrélationaux échelles cliniques).Resultats : Une composante d'élévation et une composante de rotationreprésentant plus de 62 % de la variance ont été identifiées.Des modèles simplifiés d'évaluation ont donc été calculés avec desrégressions multiples incluant des combinaisons de mouvementsde rotation et d'élévation : dos-tête, dos-abduction, dos-épaule, dosplafond.La comparaison du score de référence et des scores simplifiésmontrait à tous les stades : une relation fortement linéaire (R2> 0,96), une taille de l'effet comparable (d de Cohen 1,33 à 1,51 versus1,33 pour le score de référence) et une corrélation comparable avecles scores cliniques (r = 0,22 à 0,8). La différence entre les scoresse situait entre - 6,28 et + 2,78. La limite de l'agrément variait de 13à 24 %. Parmi les scores simplifiés, seul le score « dos-plafond » nemontrait pas de différence avec le score de référence pour l'interactiontemps*score (p > 0,5).Discussion-Conclusion : Un score cinématique de l'épaule comprenantuniquement deux mouvements a été développé. Plusieursmodèles de score simplifiés produisent des résultats comparablesau score de référence pour l'évaluation de groupes de patients. Lescore moyen « dos-plafond » présente un profil d'évolution dans letemps en relation étroite avec le score de référence. Par contre, ladiscordance des résultats entre le score de référence et les scoressimplifiés lors de mesures individuelles doit être prise en considérationavant une éventuelle application à des études de cas clinique.Implications : Cette nouvelle méthode d'évaluation présente desavantages pratiques pour l'évaluation objective de l'épaule. Cecipourrait favoriser l'utilisation de méthodes d'analyse informatiséedu mouvement en clinique et pour la recherche. Les résultats confirmentégalement que l'on peut obtenir une bonne appréciation de lafonction de l'épaule en demandant au patient de mettre la main dansle dos, puis de lever le bras.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
Quelles sont les conditions pour l'émergence d'une mobilisation sociale en faveur du logement convenable dans la métropole de Bangalore (Inde)? Cette question, qui est au coeur de cette thèse, est particulièrement pertinente dans le contexte d'une ville où 1,7 million de personnes, soit un cinquième de la population, vit dans des bidonvilles. L'absence d'un mouvement mettant en cause l'échec des politiques publiques du logement est intéressante dans la mesure où l'Inde a hérité un système de gouvernance colonial et d'une tradition de mouvements sociaux. Pour répondre à ce questionnement, un cadre théorique issu de la littérature sur les mouvements sociaux est développé. Il s'articule autour des liens entre les opportunités politiques au niveau macro et les répertoires d'action des organisations de mouvement social (OMS) au niveau méso, de la tension entre la formalité de la loi et des politiques publiques et l'informalité des circuits d'échange, de la corruption et du clientélisme, et enfin, se focalise sur les systèmes de discours de caste et de la citoyenneté et de leur concrétisation dans des systèmes d'organisations et de réseaux sociaux. Ce cadre théorique permet d'étudier empiriquement la question à travers quatre OMS dans la ville de Bangalore. Les résultats mettent en avant l'existence de mécanismes complexes. Les opportunités politiques formelles n'étant ouvertes que sur le plan rhétorique, elles ne peuvent être véritablement utilisées que par des moyens légaux ou contentieux, ce qui nécessite des compétences sociales dont la plupart des habitants des bidonvilles sont dépourvus. L'inadéquation entre les ressources à disposition pour les logements sociaux et les besoins très importants des pauvres, donne un poids politique considérable aux acteurs en charge de l'attribution de ces ressources rares. Cet état de fait a des répercussions sur la politique électorale. Les habitants des bidonvilles représentant un poids électoral important, ils sont mobilisés à travers de pratiques clientélistes. La corruption et le clientélisme se nourrissent mutuellement pour maintenir une certaine dépendance des habitants. Les OMS qui développent un répertoire discursif remettant en cause le système de caste et qui encouragent une conscience citoyenne, se sont avérées les plus durables pour résister à la cooptation des forces politiques. Cette recherche empirique met en lumière l'inadéquation entre les prescriptions formelles dans le domaine de la gouvernance des besoins humains, tels que le logement, et les pratiques réelles sur le terrain. Cette recherche appelle à réfléchir au-delà de la diffusion du discours sur la « bonne gouvernance » vers des formes de « gouvernance vernaculaire » qui prendrait au sérieux l'informalité en développant une compréhension des avantages à court terme pour les personnes marginalisées dans la ville et les effets à long terme sur la pratique démocratique. - What are the conditions for the emergence of a social movement on the issue of adequate housing in the metropolitan city of Bangalore (India)? This question is at the heart of this dissertation and is particularly pertinent against the background that an estimated 1.7 million or about 20% of the city's population lives in slums. The absence of a movement addressing the failure of public housing policy despite India having inherited colonial systems of governance and traditions of movement is noteworthy. Answers are sought within a theoretical framework stemming from social movement theories that incorporates three linkages articulating around: Macro-level political opportunities and meso-level action repertoires of social movement organisations (SMOs), tensions between the formality of law, policy and the informality of exchange circuits of corruption and clientelism and finally around systems of discourses of caste and citizenship and their instantiation in concrete systems of social organisations and networks. This thesis is empirically investigated through a qualitative case study research design involving four sampled social movement organisations. The results bring complex mechanisms to the fore. Formal political opportunities are only rhetorically open and have to be cracked through legal weaponry or contentious escalation, which requires considerable social skills that slum-dwellers often lack. The inadequacy between the few housing resources and the vast number of slum-dwellers transform housing benefits and urban service provisions into political currency. Such a state of affairs has serious repercussions on conditions for mobilisation. They become imbricated with electoral logic, in which slum-dwellers represent large vote-banks and where corruption and clientelism feed each other to maintain a certain dependency of the poor. SMOs deploying a discursive repertoire that questioned the caste system and encouraged a pursuit of citizenship proved to be the most sustainable to resist co-option from political forces. This empirical investigation brings to light the mismatch between the formal prescriptions in the domain of the governance of basic human needs such as housing and the real practices on the ground. This research calls to reflect beyond the inadequacy of the diffused « good governance » discourse towards forms of « vernacular governance » that take informality seriously in understanding the short-term benefits for the marginalised in the city and the long-term effects on democratic practice.
Resumo:
Introduction : Il essentiel pour les patients, mais aussi pour l'utilisation appropriée des ressources médicales et financières, que les centres pédiatriques oncologiques de moindre envergure répondent de manière adéquate aux normes de soins et atteignent des résultats comparables à ceux des grands centres. Étant donné que l'impact économique des soins de santé est devenu un important modulateur des décisions politiques, il est urgent que les institutions abordent le sujet de la qualité en chirurgie pédiatrique oncologique, et fournissent des éléments pour appuyer ou modifier les lignes directrices existantes Patients et méthode : Par cette étude monocentrique rétrospective de 13 ans, nous avons analysé la qualité de la chirurgie pédiatrique de tumeurs abdominales ou thoraciques du Département Médico-Chirurgical du CHUV pratiquée sur 48 enfants. Afin d'y parvenir, nous avons choisi et analysé deux indicateurs de la qualité de ces soins. Le premier est la conformité de la pratique de ce service, avec les directives des protocoles de traitements internationaux. Le second paramètre étudié est la mesure du taux d'événements indésirables liés à la chirurgie du cancer observés dans notre population de patients. Résultats : La conformité avec les protocoles de traitement est très élevée avec un taux de 96%. L'incidence des événements indésirables liés à la chirurgie est de 34 patients sur 48 (66%). Les complications graves sont rares, avec 85% ne nécessitant pas plus qu'un traitement médical simple. Aucune mortalité chirurgicale n'a été identifiée. Conclusion : Nos données suggèrent que la planification méticuleuse de la chirurgie et l'exécution de celle-ci par des chirurgiens dédiés à l'oncologie pédiatrique, ainsi qu'une étroite collaboration avec des oncologues pédiatres sont des conditions essentielles à la qualité des soins apportés à ces patients. Dans ces conditions, même un centre d'oncologie pédiatrique de moindre envergure peut répondre aux normes établies par les grands centres internationaux.
Resumo:
[Résumé (extrait)] Lancé en octobre 1999, le Programme valaisan de dépistage du cancer du sein a pour mission de promouvoir, d'organiser et de mener une action de dépistage auprès de la population féminine valaisanne âgée de 50 à 70 ans. Ce programme est régulièrement évalué, de manière indépendante, afin de s'assurer que sa qualité et son efficacité répondent à des normes internationalement admises tout en minimisant ses effets adverses. Ces évaluations ont mis en évidence un niveau de performances globalement satisfaisant et suggéré un potentiel d'amélioration, notamment de la qualité des lectures radiologiques. Dans un souci d'optimiser les performances, la direction du Programme a mené ces dernières années plusieurs actions auprès de ses radiologues et pris quelques mesures. Ce rapport thématique traite de l'évolution des performances du programme, principalement au cours de la dernière décennie (2002-11), c'est-à-dire après sa phase de démarrage (1999-2001). Les tendances des principaux indicateurs de performance et leurs associations avec les actions et mesures réalisées, qui ont été répertoriées et classées selon leur types et objectifs, sont analysées. Les facteurs les plus influents sur la qualité des lectures radiologiques sont quantifiés de manière à faciliter toute décision interventionnelle. Les cancers d'intervalle (1999-2010) du Programme sont étudiés afin d'en apprécier la fréquence, d'en établir le profil pronostique et de déterminer les caractéristiques clinicoépidémiologiques qui les distinguent des cancers dépistés dans le cadre du Programme.
Resumo:
Abstract The study of fossil Tethyan continental margins implies the consideration of the oceanic domains to which they were connected. The advent of plate tectonics confirmed the importance of the detection of accretion-related mélanges. Ophiolitic mélanges are derived from both an upper ophiolitic obducting plate and a lower oceanic plate. Besides ophiolitic elements, the mélanges may incorporate parts of a magmatic arc and dismembered fragments of a passive continental margin. As the lower plate usually totally disappears during the obduction process, it can only be reconstructed from its elements found in the mélanges. Because of their key location at active margin boundaries, preserved accretion-related mélanges provide strong constraints on the geological evolution of former oceanic domains and their adjacent margins. The identification of Palaeotethyan remnants as accretionary series or reworked during the Late Triassic Eo-Cimmerian event, as well as the recognition of HugluPindos marginal sequences in southern Turkey and in the external Hellenides represent the main achievements of this work, making possible to establish new palaeogeographical correlations. The Mersin mélanges (Turkey), together with the Antalya and Mamonia (Cyprus) domains, are characterized by a series of exotic units found now south of the main Taurus range and compose the South-Taurides Exotic Units. The Mersin mélanges are subdivided in a Triassic and a Late Cretaceous unit. These units consist of the remnants of three major Tethyan oceans, the Palaeotethys, the Neotethys and the Huglu-Pindos. The definition and inventory of the Upper Antalya Nappes (Turkey) are still a matter of controversies and often conflicting interpretations. The recognition of Campanian radiolarians on top of the Kerner Gorge unit directly overlain by the Ordovician Seydi§ehir Fm. of the Tahtah Dag Nappe outlines a tectonic contact and demonstrates that the Upper Antalya Nappes system is composed of three different nappes, the Kerner Gorge, Bakirli and the Tahtah Dag nappes. Additionally, a limestone block in a doubtful tectonic position at the base of the Upper Antalya Nappes yielded for the first time two middle Viséan associations of foraminifers and problematic algae. The Tavas Nappe in the Lycian Nappes (Turkey) is classically divided into the Karadag, Teke Dere, Köycegiz and Haticeana units. As for the Mersin mélanges, the Tavas Nappe is highly composite and includes dismembered units belonging to the Palaeotethyan, Neotethyan and HugluPindos realms. The Karadag unit consists of a Gondwana-type platform succession ranging from the Late Devonian to the Late Triassic. It belongs to the Cimmerian Taurus terrane and was part of the northern passive margin of the Neotethys. The Teke Dere unit is composed of different parts of the Palaeotethyan succession including Late Carboniferous OIB-type basalts, Carboniferous MORB-type basalts, an Early Carboniferous siliciclastic series and a Middle Permian arc sequence. The microfauna and microflora identified in different horizons within the Teke Dere unit share strong biogeographical affinities with the northern Palaeotethyan borders. Kubergandian limestones in primary contact above the Early Carboniferous siliciclastics yielded a rich and diverse microfauna and microflora also identified in reworked cobbles within the Late Triassic Gevne Fm. of the Aladag unit (Turkey). The sedimentological evolution of the Köycegiz and Haticeana series is in many points similar to classical Pindos sequences. These series originated in the Huglu-Pindos Ocean along the northern passive margin of the Anatolian (Turkish transect) and Sitia-Pindos (Greek transect) terranes. Conglomerates at the base of the Lentas Unit in southern Crete (Greece) yielded a microfauna and microflora presenting also strong affinities with the northern borders of the Palaeotethys. This type of reworked sediments at the base of Pindos-like series would suggest a derivation from the Palaeotethyan active margin. -Résumé (French abstract) L'étude des marges continentales fossiles de l'espace téthysien implique d'étudier les domaines océaniques qui y étaient rattachés. Les progrès de la tectonique des plaques ont confirmé l'importance de la reconnaissance des mélanges d'accrétion. Les mélanges ophiolitiques dérivent d'une plaque supérieure ophiolitique qui obducte, et d'une plaque inférieure océanique. En plus d'éléments ophiolitiques, les mélanges peuvent aussi incorporer des parties d'un arc magmatique, ou des fragments d'une marge continentale passive. Comme la plaque inférieure disparaît généralement complètement durant le processus d'obduction, elle ne peut être reconstruite qu'au travers de ses éléments trouvés dans les mélanges. A cause de leur situation aux limites de marges actives, les mélanges d'accrétion bien préservés permettent de contraindre l'évolution géologique d'anciens océans et de leurs marges. L'identification de vestiges de la Paléotéthys en série d'accrétion ou remaniés lors de l'orogenèse éo-cimmérienne au Trias supérieur, ainsi que l'observation de séquences marginales de Huglu-Pinde en Turquie du sud et dans les Hellénides externes représentent les principaux résultats de ce travail, permettant d'établir de nouvelles corrélations paléogéographiques. Les mélanges de Mersin (Turquie), avec les domaines d'Antalya et de Mamonia (Chypre), sont caractérisés par des unités exotiques se trouvant au sud de la chaîne taurique, et forment les Unités Exotiques Sud-Tauriques. Les mélanges de Mersin sont subdivisés en une unité triasique, et une autre du Crétacé supérieur. Ces unités comprennent les reliques de trois principaux océans téthysiens, la Paléotéthys, la Néotéthys et Huglu-Pinde. L'inventaire et la définition des nappes supérieures d'Antalya (Turquie) sont encore matière à controverse et donne lieu à des interprétations conflictuelles. La découverte de radiolaires campaniens au sommet de l'unité de la Gorge de Kemer, directement recouverts par la formation ordovicienne de Seydisehir de la nappe du Tahtali Dag met en évidence un contact tectonique et démontre que les nappes supérieures sont composées de trois différentes nappes, celle de la Gorge de Kemer, celle du Bakirli et celle Tahtali Dag. De plus, un bloc de calcaire dont la position tectonique demeure incertaine à la base des nappes supérieures a fourni pour la première fois deux associations viséennes de foraminifères et d'algues problématiques. La nappe de Tavas dans les nappes lyciennes (Turquie) est séparée en unités du Karadag, du Teke Dere, de Köycegiz et d'Haticeana. Comme pour les mélanges de Mersin, la nappe de Tavas est composite et inclut des unités appartenant à la Paléotéthys, à la Néotéthys et à Huglu-Pinde. L'unité du Karadag est une plateforme carbonatée de type Gondwana se développant du Dévonien supérieur au Trias supérieur. Elle appartient au domaine cimmérien du Taurus et formait la marge nord de la Néotéthys. L'unité du Teke Dere est composée de différentes écailles paléotéthysiennes et inclut des basaltes d'île océanique du Carbonifère supérieur, des basaltes de ride océanique du Carbonifère, une série siliciclastique du Carbonifère supérieur et un arc du Permien moyen. Les microfaunes et -flores trouvées à différents niveaux de la série du Teke Dere partagent de fortes affinités paléogéographiques avec les marges nord de la Paléotéthys. Des calcaires du Kubergandien en contact primaire au-dessus de la série siliciclastique a donné de riches microfaunes et -flores, également identifiées dans des galets remaniés dans la formation de Gevne du Trias supérieur de l'Aladag. L'évolution sédimentologique des séries de Köycegiz et d'Haticeana sont très similaires aux séries classiques du Pinde. Ces séquences prennent leur racine dans l'océan de Huglu-Pinde, le long de la marge passive nord anatolienne (profil turc) et de la marge de Sitia-Pinde (profil grec). Des conglomérats à la base de l'unité de Lentas au sud de la Crète (Grèce) ont donné des microfaunes et flores partageant également de fortes similitudes avec les bordures nord de la Paléotéthys. Le type de sédiments remaniés à la base d'unités de type Pinde suggère une dérivation depuis la marge active de la Paléotéthys. -Résumé grand public (non-specialized abstract) Au début du 20ème siècle, Alfred Wegener bouleverse les croyances géologiques de l'époque et publie plusieurs articles sur la dérive ou la translation des continents. En utilisant des arguments géographiques (similarités des lignes de côte), paléontologiques (faunes et flores similaires) et climatiques (dépôts tropicaux et glaciaires), Wegener explique qu'il y a plusieurs millions d'années, les terres émergées actuelles ne devaient former qu'un seul et grand continent. La fin du 20ème siècle verra l'avènement de la théorie de la tectonique des plaques suite à la reconnaissance du cycle de Wilson, des rides médio-océaniques, des anomalies magnétiques dans les océans et des sutures océaniques qui représentent les reliques d'océans disparus. Le Cycle de Wilson se caractérise par une suite d'évènements géologiques majeurs pouvant se résumer de la manière suivante : (1) séparation d'un craton continental en deux parties, créant une limite de plaque divergente. C'est ce que l'on appelle un rift; (2) développement et croissance d'un océan entre ces deux blocs. Des roches magmatiques remontent à la surface de la terre et forment une chaîne de montagne sous-marine que l'on appelle ride médio-océanique ou dorsale. L'océan continue de se développer, et des sédiments se déposent à sa surface formant la suite ophiolitique ou trinité de Steinmann; (3) après une phase d'expansion plus ou moins longue, les conditions imposées aux limites des plaques à la surface de la terre changent, et l'océan se met à se refermer par disparition progressive (subduction) de sa croûte océanique sous une croûte continentale par exemple. Ceci crée une nouvelle limite de plaque, convergente cette fois; (4) la subduction de la plaque océanique sous la plaque continentale provoque une remontée de magma formant des chaînes volcaniques à la surface de la Terre ; (5) une fois que la plaque océanique a complètement disparu, les deux blocs préalablement séparés par l'océan font collision, formant ainsi une chaîne de montagne. Les chaînes de montagnes sont de manière générale formées par un empilement plus ou moins complexe de nappes. C'est au coeur de certaines de ces nappes que se trouvent les vestiges de l'océan disparu. Un des objectifs de ce travail était la recherche de ces vestiges dans le domaine téthysien de la Méditerranée orientale. Pour ce faire, nous avons parcourus une grande partie du sud de la Turquie, nous sommes allés à Chypre, dans le Sultanat d'Oman, en Iran, en Crète, et nous avons visités quelques îles grecques du Dodécanèse. La région de la Méditerranée orientale est une zone qui a été tectoniquement très active, et qui continue de l'être de nos jours par des phénomènes de subduction (ex. les volcans de Santorin), et par des mouvements coulissants entre des plaques continentales (ex. la faille nord-anatolienne) qui donnent régulièrement lieu à des tremblements de terre. Pour le géologue, la complexité de ces zones d'étude réside dans le fait que les chaînes de montagne actuelles ne contiennent en général pas seulement les restes d'un océan, mais bien de plusieurs bassins océaniques qui se sont succédés dans l'espace et dans le temps. Les nappes qui se trouvent au sud de la Turquie et dans le Dodécanèse forment un important jalon dans la chaîne alpine qui s'étend depuis les Alpes jusque dans l'Himalaya. L'idée d'un continuum au coeur de ce système se basait principalement sur l'âge des océans et sur la reconnaissance de similarités dans l'évolution des séries sédimentaires. La localisation des vestiges de la Paléotéthys ainsi que l'identification des séries sédimentaires ayant appartenu à l'océan de HugluPinde repris sous forme de nappes en Turquie et en Grèce sont cruciales pour permettre de bonnes corrélations locales et régionales. La reconnaissance, la compréhension et l'interprétation de ces séries sédimentaires permettront d'élaborer un modèle d'évolution géodynamique régional, s'appuyant sur des faits de terrains indiscutables, et prenant en compte les contraintes globales que ce genre d'exercice implique.
Subthalamic nucleus deep brain stimulation for Parkinson's disease : "Are we where we think we are ?
Resumo:
ABSTRACT High frequency electrical deep brain stimulation (DBS) of the subthalamic nucleus (STN) is a worldwide recognized therapy for the motor symptoms of Parkinson's disease in fluctuating patients who are progressively disabled despite medical treatment adjustments. However, such improvements emerge despite a lack of understanding of either the precise role of STN in human motor control or the mechanism(s) of action of DBS. Through the question "are we where we think we are", this thesis is first dedicated to the control of the position of the preoperatively defined target and of the implanted electrodes on magnetic resonance imaging (MRI). This anatomical approach will provide a way to identify more precisely the structure(s) involved by electrical stimulation. Then, a study of the correlation existing between the position of the preoperative target and the position of the electrode is performed. In this part, a unique opportunity is given to identify factors that may affect these correlation results. Finally, the whole work represents a « quality assessment » of the crucial steps of STN DBS: first, the target and the implanted electrode localisation procedures that have been developed in collaboration with the Radiological department; second the implantation procedure that has been performed nowadays on more than 50 parkinsonian patients in the Neurosurgical department of the Centre Hospitalier Universitaire Vaudois in collaboration with the Neurological department. This work is especially addressed to the multidisciplinary medical team involved in the surgical treatment of movement disorders, including also neurophysiologists, neuropsychologists and psychiatrists. RESUME La stimulation électrique à haute fréquence du noyau sous-thalamique est à ce jour mondialement reconnue pour le traitement des symptômes moteurs de la maladie de Parkinson chez des patients sévèrement atteints et chez qui la réponse fluctuante au traitement médicamenteux ne peut être améliorée de façon satisfaisante. Cependant, les résultats observés surviennent malgré une compréhension approximative et controversée du rôle réel du noyau sous-thalamique dans le contrôle du mouvement volontaire aussi bien que des mécanismes d'action de la stimulation cérébrale profonde. A travers la question « sommes-nous où nous pensons être », cette thèse est tout d'abord consacrée à l'étude du contrôle de la position de la cible définie avant l'intervention et de la position des électrodes implantées sur l'imagerie par résonance magnétique (IRM). Cette approche anatomique permettra d'identifier plus précisément la (les) structure(s) influencées par la stimulation électrique. Ensuite, une étude de la corrélation existant entre la position de la cible préopératoire et la position des électrodes implantées est effectuée. Elle a pour but de mettre en évidence les facteurs influençant les résultats de cette corrélation. Enfin, le travail dans son ensemble est un « contrôle de qualité » des étapes cruciales de la stimulation du noyau sous-thalamique : premièrement, des méthodes de localisation de la cible et des électrodes implantées effectuées sur IRM, développées en collaboration avec le service de Radiologie ; deuxièmement, de la méthode d'implantation utilisée à ce jour chez plus de 50 patients dans le service de Neurochirurgie du Centre Hospitalier Universitaire Vaudois en collaboration avec le service de Neurologie. Ce travail s'adresse spécialement aux équipes médicales pluridisciplinaires impliquées dans le traitement chirurgical des mouvements anormaux, incluant également des neurophysiologistes, des neuropsychologues et des psychiatres.
Resumo:
We perceive our environment through multiple sensory channels. Nonetheless, research has traditionally focused on the investigation of sensory processing within single modalities. Thus, investigating how our brain integrates multisensory information is of crucial importance for understanding how organisms cope with a constantly changing and dynamic environment. During my thesis I have investigated how multisensory events impact our perception and brain responses, either when auditory-visual stimuli were presented simultaneously or how multisensory events at one point in time impact later unisensory processing. In "Looming signals reveal synergistic principles of multisensory integration" (Cappe, Thelen et al., 2012) we investigated the neuronal substrates involved in motion detection in depth under multisensory vs. unisensory conditions. We have shown that congruent auditory-visual looming (i.e. approaching) signals are preferentially integrated by the brain. Further, we show that early effects under these conditions are relevant for behavior, effectively speeding up responses to these combined stimulus presentations. In "Electrical neuroimaging of memory discrimination based on single-trial multisensory learning" (Thelen et al., 2012), we investigated the behavioral impact of single encounters with meaningless auditory-visual object parings upon subsequent visual object recognition. In addition to showing that these encounters lead to impaired recognition accuracy upon repeated visual presentations, we have shown that the brain discriminates images as soon as ~100ms post-stimulus onset according to the initial encounter context. In "Single-trial multisensory memories affect later visual and auditory object recognition" (Thelen et al., in review) we have addressed whether auditory object recognition is affected by single-trial multisensory memories, and whether recognition accuracy of sounds was similarly affected by the initial encounter context as visual objects. We found that this is in fact the case. We propose that a common underlying brain network is differentially involved during encoding and retrieval of images and sounds based on our behavioral findings. - Nous percevons l'environnement qui nous entoure à l'aide de plusieurs organes sensoriels. Antérieurement, la recherche sur la perception s'est focalisée sur l'étude des systèmes sensoriels indépendamment les uns des autres. Cependant, l'étude des processus cérébraux qui soutiennent l'intégration de l'information multisensorielle est d'une importance cruciale pour comprendre comment notre cerveau travail en réponse à un monde dynamique en perpétuel changement. Pendant ma thèse, j'ai ainsi étudié comment des événements multisensoriels impactent notre perception immédiate et/ou ultérieure et comment ils sont traités par notre cerveau. Dans l'étude " Looming signals reveal synergistic principles of multisensory integration" (Cappe, Thelen et al., 2012), nous nous sommes intéressés aux processus neuronaux impliqués dans la détection de mouvements à l'aide de l'utilisation de stimuli audio-visuels seuls ou combinés. Nos résultats ont montré que notre cerveau intègre de manière préférentielle des stimuli audio-visuels combinés s'approchant de l'observateur. De plus, nous avons montré que des effets précoces, observés au niveau de la réponse cérébrale, influencent notre comportement, en accélérant la détection de ces stimuli. Dans l'étude "Electrical neuroimaging of memory discrimination based on single-trial multisensory learning" (Thelen et al., 2012), nous nous sommes intéressés à l'impact qu'a la présentation d'un stimulus audio-visuel sur l'exactitude de reconnaissance d'une image. Nous avons étudié comment la présentation d'une combinaison audio-visuelle sans signification, impacte, au niveau comportementale et cérébral, sur la reconnaissance ultérieure de l'image. Les résultats ont montré que l'exactitude de la reconnaissance d'images, présentées dans le passé, avec un son sans signification, est inférieure à celle obtenue dans le cas d'images présentées seules. De plus, notre cerveau différencie ces deux types de stimuli très tôt dans le traitement d'images. Dans l'étude "Single-trial multisensory memories affect later visual and auditory object recognition" (Thelen et al., in review), nous nous sommes posés la question si l'exactitude de ia reconnaissance de sons était affectée de manière semblable par la présentation d'événements multisensoriels passés. Ceci a été vérifié par nos résultats. Nous avons proposé que cette similitude puisse être expliquée par le recrutement différentiel d'un réseau neuronal commun.
Resumo:
Thousands of chemical compounds enter the natural environment but many have unknown effects and consequences, in particular at low concentrations. This thesis work contributes to our understanding of pollution effects by using bacteria as test organisms. Bacteria are important for this question because some of them degrade and transform pollutants into less harmful compounds, but secondly because they themselves can be inhibited in their reproduction by exposure to toxic compounds. When inhibitory effects occur this may change the composition of the microbial com¬munity in the long run, leading to altered or diminished ecosystem services by those communities. As a result chemicals of anthropogenic origin may accumulate and per¬sist in the environment, and finally, affect higher organisms as well. In addition to acquiring basic understanding of pollutant effects at low concentrations on bacterial communities an applied goal of this thesis work was to develop bacteria-based tests to screen new organic chemicals for toxicity and biodégradation. In the first part of this work we developed a flow cytometry-based assay on SYT09 plus ethidium-bromide or propidium-iodide stained cells of Pseudomonas ûuorescens exposed or not to a variety of pollutants under oligotrophic growth conditions. Flow cytometry (FC) allows fast and accurate counting of bacterial cells under simul¬taneous assessment of their physiological state, in particular in combination with different fluorescent dyes. Here we employed FC and fluorescent dyes to monitor the effect that pollutants may exert on Pseudomonas ûuorescens SV3. First we designed an oligotrophic growth test, which enabled us to follow population growth at low densities (104 - 10 7 cells per ml) using 0.1 mM sodium acetate as carbon source. Cells in the oligotrophic milieu were then exposed or not to a variety of common pollutants, such as 2-chlorobiphenyl (2CBP), naphthalene (NAH), 4-chlorophenol (4CP), tetradecane (TD), mercury chloride (HgCl2) or benzene, in different dosages. Exposed culture samples were stained with SYT09 (green fluorescent dye binding nucleic acids, generally staining all cells) in combination with propidium iodide (PI) or ethidium bromide (EB), both dyes being membrane integrity indicators. We ob- served that most of the tested compounds decreased population growth in a dosage- dependent manner. SYT09/PI or SYT09/EB staining then revealed that chemical exposure led to arisal of subpopulations of live and injured or dead cells. By modeling population growth on the total cell numbers in population or only the subpopulation of live cells we inferred that even in stressed populations live cells multiply at rates no different to unexposed controls. The net decrease in population growth would thus be a consequence of more and more cells being not able to multiply at all, rather than all cells multiplying at slower rates. In addition, the proportion of injured cells correlated to the compound dosage. We concluded that the oligotrophic test may be useful to asses toxicity of unknown chemicals on a variety of model bacteria. Mul¬tiple tests can be run in parallel and effects are rapidly measured within a period of 8 hours. Interestingly, in the same exposure tests with P. fluorescens SV3 we observed that some chemicals which did not lead to a reduction of net population growth rates did cause measurable effects on live cells. This was mainly observed in cells within the live subpopulation as an increase of the EB fluorescence signal. We showed that SYT09/EB is a more useful combination of dyes than SYT09/PI because PI fluorescence tend to increase only when cells are effectively dead, but not so much in live cells (less then twofold). In contrast, EB geometric mean fluorescence in live cells increased up to eightfold after exposure to toxic compounds. All compounds even at the lowest concentration caused a measurable increase in EB geometric mean fluorescence especially after 2 h incubation time. This effect was found to be transient for cells exposed to 2CBP and 4CP, but chronic for cells incubated with TD and NAH (ultimately leading to cell death). In order to understand the mechanism underlying the observed effects we used known membrane or energy uncouplers. The pattern of EB signal increase in chemical-exposed populations resembled mostly that of EDTA, although EB fluorescence in EDTA-treated or pasteurized cells was even higher than after exposure to the four test chemicals. We conclude that the ability of cells to efflux EB under equilibrium conditions is an appropriate measure for the potential of a chemical to exert toxicity. Since most bacterial species possess efflux systems for EB that all require cellular energy, our test should be more widely relevant to infer toxicity effects of chemical exposure on the physiological status of the bacterial cell. To better understand the effect of toxicant exposure on efflux defense systems, we studied 2-hydroxybiphenyl toxicity to Pseudomonas azeiaica HBP1. We showed that 2-HBP exerts toxicity even to P. azelaica HBP1, but only at concentrations higher than 0.5 mM. Above this concentration transient loss of membrane polarization and integrity occurred, which we conclude from staining of growing cells with fluorescent dyes. Cells finally recover and resume growth on 2HBP. The high resistance of P. azelaica HBP1 to 2-HBP was found to be the result of an efficient MexABOprM- type efflux pump system counteracting passive influx of this compound into the membrane and cellular interior. Mutants with disrupted mexA, mexB and oprM genes did no longer grow on 2-HBP at concentrations above 100 μΜ, whereas below this concentration we found 2-HBP-concentration dependent decrease of growth rate. The MexAB-OprM system in P. azeiaica HBP1 is indeed an efflux pump for ethidium bromide as well. By introducing gfp reporter fusions responsive to intracellular 2- HBP concentrations into HBP1 wild-type or the mutants we demonstrated that 2HBP enters into the cells in a similar way. In contrast, the reporter system in the wild-type cells does not react to 2-HBP at an outside concentration of 2.4 μΜ, whereas in mutant cells it does. This suggests that wild-type cells pump 2-HBP to the outside very effectively preventing accumulation of 2-HBP. 2HBP metabolism, therefore, is not efficient enough to lower the intracellular concentration and prevent toxicity. We conclude that P. azelaica HBP1 resistance to 2-HBP is mainly due to an efficient efflux system and that 2HBP in high concentrations exerts narcotic effects on the bacterial membrane. In the part of this thesis, we investigated the possibilities of bacteria to degrade pollutants at low concentrations (1 mg per L and below). As test components we used 2-hydroxybiphenyl, antibiotics and a variety of fragrances, many of which are known to be difficult to biodegrade. By using accurate counting of low numbers of bacterial cells we could demonstrate that specific growth on these compounds is possible. We demonstrated the accuracy of FC counting at low cell numbers (down to 103 bacterial cells per ml). Then we tested whether bacterial population growth could be specifically monitored at the expense of low substrate concentrations, us¬ing P. azelaica HBP1. A perfect relationship was found between growth rate, yield and 2-HBP concentrations in the range of 0.1 up to 5 mg per L. Mixing P. azelaica within sludge, however, suggested that growth yields in a mixed community can be much lower than in pure culture, perhaps because of loss of metabolic intermediates. We then isolated new strains from activated sludge using 2-HBP or antibiotics (Nal, AMP, SMX) at low concentrations (0.1-1 mg per L) as sole carbon and energy sub¬strate and PAO microdishes. The purified strains were then examined for growth on their respective substrate, which interestingly, showed that all strains can not with¬stand higher than 1 or 10 mg per L concentrations of target substrate. Thus, bacteria must exist that contribute to compound degradation at low pollutant concentrations but are inhibited at higher concentrations. Finally we tested whether specific biomass growth (in number of cells) at the expense of pollutants can also be detected with communities as starting material. Hereto, we focused on a number of fragrance chemicals and measured community biomass increase by flow cytometry cell counting on two distinct starter communities: (i) diluted Lake Geneva water, and dilute activated sludge from a wastewater treatment plant. We observed that most of the test compounds indeed resulted in significant biomass increase in the starter community compared to a no-carbon added control, but activated sludge and lake Geneva water strongly differed (almost mutually ex¬clusive) in their capacity to degrade the test chemicals. In two cases for activated sludge the same type of microbial community developed upon compound exposure, as concluded from transcription fragment length polymorphism analysis on community purified and PCR amplified 16S rRNA gene fragments. To properly test compound biodegradability it is thus important to use starter communities of different origin. We conclude that FC counting can be a valuable tool to screen chemicals for their biodegradability and toxicity. - Des milliers de produits chimiques sont libérés dans l'environnement mais beaucoup ont des effets inconnus, en particulier à basses concentrations. Ce travail de thèse contribue à notre comprehension des effets de la pollution en utilisant des bacteries comme des organismes-tests. Les bacteries sont importantes pour etudier cette ques¬tion car certaines d'entre elles peuvent degrader ou transformer les polluants, mais également parce qu'elles-mmes peuvent tre inhibees dans leur reproduction après avoit ete exposees à ces composes toxiques. Quand des effets inhibiteurs ont lieu, la composition de la communauté microbienne peut tre changee à long terme, ce qui mène à une reduction du service d'ecosystème offert par ces communautés. En consequence, après leur liberation dans l'environnement, les produits chimiques d'origine anthropogenique peuvent soit s'y accumuler et per¬sister, exerant ainsi des effets encore inconnus sur les organismes vivants. En plus d'acquérir des connaissances de base sur les effets des polluants à basses concentra¬tions sur les communautés microbiennes, un but applique de cette thèse était de développer des tests bases sur les bacteries afin d'identifier de nouveau composes pour leur toxicité ou leur biodégradation. Dans la première partie de ce travail, nous avons developpe un test base sur la cytometrie de flux (FC) sur des cellules de Pseudomonas fluorescens colorees par du bromure d'ethidium ou de l'iodure de propidium et exposees ou non à une palette de polluants sous des conditions de croissance oligotrophique. La cytometrie de flux est une technique qui connaît de nombreuses applications dans la microbiologie environ¬nementale. Cela est principalement du au fait qu'elle permet un comptage rapide et precis ainsi que l'évaluation de l'état physiologique, en particulier lorsqu'elle est combinée h des colorations fluorescentes. Ici, nous avons utilise la technique FC et des colorants fluorescents afin de mesurer l'effet que peuvent exercer certains pollu¬ants sur Pseudomonas ûuorescens SV3 . D'abord nous avons conu des tests oligo- trophiques qui nous permettent de suivre la croissance complète de cellules en culture h des densites faibles (104 -10 7 cellules par ml), sur de l'acetate de sodium à 0.1 mM, en presence ou absence de produits chimiques (2-chlorobiphenyl (2CBP), naphthalène (NAH), 4-chlorophenol (4CP), tetradecane (TD), chlorure de mercure(II) (HgCl2)) à différentes concentrations. Afin de montrer le devenir des bacteries tant au niveau de la cellule individuelle que celui de la population globale, après exposition à des series de composes chimiques, nous avons compte les cellules colorees avec du SYT09 (col¬orant fluorescent vert des acides nucléiques pour la discrimination des cellules par rapport au bruit de fond) en combinaison avec l'iodure de propidium (PI) ou le bromure d'ethidium (EB), indicateurs de l'intégrité de la membrane cellulaire avec FC. Nous avons observe que de nombreux composes testes avaient un effet sur la croissance bacterienne, resultant en une baisse du taux de reproduction de la pop¬ulation. En outre, la double coloration que nous avons utilisee dans cette etude SYT09/PI ou SYT09/EB a montre que les produits chimiques testes induisaient une reponse heterogène des cellules dans la population, divisant celle-ci en sous- populations "saine", "endommagee" ou "morte". Les nombres de cellules à partir du comptage et de la proportion de celles "saines" et "endommagees/mortes" ont ensuite ete utilises pour modeliser la croissance de P. ûuorescens SV3 exposee aux produits chimiques. La reduction nette dans la croissance de population est une consequence du fait que de plus en plus de cellules sont incapables de se reproduire, plutt que du fait d'une croissance plus lente de l'ensemble de la population. De plus, la proportion de cellules endommagees est correllee au dosage du compose chimique. Les résultats obtenus nous ont permis de conclure que le test oligotrophique que nous avons developpe peut tre utilise pour l'évaluation de la toxicité de produits chimiques sur différents modèles bacteriens. Des tests multiples peuvent tre lances en parallèle et les effets sont mesures en l'espace de huit heures. Par ailleurs, nous en déduisons que les produits chimiques exercént un effet sur la croissance des cellules de P. ûuorescens SV3, qui est heterogène parmi les cellules dans la population et depend du produit chimique. Il est intéressant de noter que dans les mmes tests d'exposition avec P. ûuorescens SV3, nous avons observe que certains composes qui n'ont pas conduit à une reduction du taux de la croissance nette de la population, ont cause des effets mesurables sur les cellule saines. Ceci a ete essentiellement observe dans la portion "saine" des cellules en tant qu'augmentation du signal de la fluorescence de 1ΈΒ. D'abord nous avons montre que SYT09/EB était une com¬binaison de colorants plus utile que celle de SYT09/PI parce que la fluorescence du PI a tendance à augmenter uniquement lorsque les cellules sont effectivement mortes, et non pas dans les cellules saines (moins de deux fois plus). Par opposi¬tion, la fluorescence moyenne de l'EB dans les cellules saines augmente jusqu'à huit fois plus après exposition aux composes toxiques. Tous les composes, mme aux plus basses concentrations, induisent une augmentation mesurable de la fluorescence moy¬enne de 1ΈΒ, plus particulièrement après deux heures d'incubation. Cet effet s'est revele tre transitoire pour les cellules exposees aux 2CNP et 4CP, mais est chro¬nique pour les cellules incubees avec le TD et le NAH (entranant la mort cellulaire). Afin de comprendre les mécanismes qui sous-tendent les effets observes, nous avons utilise des decoupleurs d'energie ou de membrane. L'augmentation du signal EB dans les populations causee par des produits chimiques ressemblait à celle exerce par le chelateur des ions divalents EDTA. Cependant, les intensités du signal EB des cellules exposees aux produits chimiques testees n'ont jamais atteint les valeurs des cellules traitees avec l'EDTA ou pasteurises. Nous en concluons que le test oli- gotrophique utilisant la coloration (SYT09/)EB des cellules exposees ou non à un produit chimique est utile afin d'evaluer l'effet toxique exerce par les polluants sur la physiologie bacterienne. Afin de mieux comprendre la reaction d'un système de defense par pompe à efflux après exposition à une toxine, nous avons étudié la toxicité du 2-hydroxybiphenyl (2-HBP) sur Pseudomonas azeiaica HBP1. Nous avons montre que le 2-HBP exerce une toxicité mme sur HBP1, mais uniquement à des concentrations supérieures à 0.5 mM. Au-dessus de cette concentration, des pertes transitoires d'intégrité et de polarization membranaire ont lieu, comme cela nous a ete montre par coloration des cellules en croissance. Les cellules sont finalement capables de se rétablir et de reprendre leur croissance sur 2-HBP. La forte resistance de P. azeiaica HBP1 h 2-HBP physiologie bacterienne s'est revele tre le résultat d'un système de pompe h efflux de type MexABOprM qui contre-balance l'influx passif de ce compose h travers la membrane. Nous avons montre, en construisant des mutants avec des insertions dans les gènes mexA, mexB and oprM et des fusions avec le gène rapporteur gfp, que l'altération de n'importe quelle partie du système d'efflux conduisait à accroître l'accumulation de 2-HBP dans la cellule, en comparaison avec la souche sauvage HBP1, provoquant une diminution de la resistance au 2-HBP ainsi qu'une baisse du taux de reproduction des cellules. Des systèmes d'efflux similaires sont répandus chez de nombreuses espèces bactériennes. Ils seraient responsables de la resistance aux produits chimiques tels que les colorants fluorescents (bromure d'ethidium) et des antibiotiques. Nous concluons que la resistance de P. azelaica HBP1 à 2-HBP est principalement due à un système d'efflux efficace et que 2-HBP, à des concentrations elevees, exerce un effet deletère sur la membrane bacterienne. En se basant sur le comptage des cellules avec la FC, nous avons developpe ensuite une methode pour evaluer la biodegradabilite de polluants tels que le 2-HBP ainsi que les antibiotiques (acide nalidixique (Nal), ampicilline (AMP) ou sulfamethoxazole (SMX)) à de faibles concentrations lmg par L et moins), par le suivi de la croissance spécifique sur le compose de cultures microbiennes pures et mixtes. En utilisant un comptage precis de faibles quantités de cellules nous avons pu demontrer que la croissance spécifique sur ces composes est possible. Nous avons pu illustrer la precision du comptage par cytometrie de flux à faible quantité de cellules (jusqu'à 10 3 cellules par ml). Ensuite, nous avons teste s'il était possible de suivre dynamiquement la croissance de la population de cellules sur faibles concentrations de substrats, en utilisant P. azelaica HBP1. Une relation parfaite a ete trouvee entre le taux de croissance, le rendement et les concentrations de 2-HBP (entre 0.1 et 5 mg par L). En mélangeant HBP1 à de la boue active, nous avons pu montrer que le rendement en communauté mixtes pouvait tre bien inférieur qu'en culture pure. Ceci étant peut tre le résultat d'une perte d'intermédiaires métaboliques. Nous avons ensuite isole de nouvelles souches à partir de la boue active en utilisant le 2-HBP ou des antibiotiques (Nal, AMP, SMX) h basses concentrations (0.1-1 mg par L) comme seules sources de carbone et d'energie. En combinaison avec ceci, nous avons également utilise des microplaques PAO. Les souches purifiees ont ensuite ete examinees pour leurs croissances sur leurs substrats respectifs. De faon intéressante, toutes ces souches ont montre qu'elles ne pouvaient pas survivre à des concentrations de substrats supérieures à 1 ou 10 mg par L. Ainsi, il existe des bacteries qui contribuent à la degradation de composes à basses concentrations de polluant mais sont inhibes lorsque ces concentrations deviennent plus hautes. Finalement, nous avons cherche à savoir s'il est possible de detecter une croissance spécifique à une biomasse au depend d'un polluant, en partant d'une communauté microbienne. Ainsi, nous nous sommes concentre sur certains composes et avons mesure l'augmentation de la biomasse d'une communauté grce à la cytometrie de flux. Nous avons compte deux communautés de depart distinctes: (i) une dilution d'eau du Lac Léman, et une dilution de boue active d'une station d'épuration. Nous avons observe que la plupart des composes testes ont entrane une augmentation de la biomasse de depart par rapport au control sans addition de source de carbone. Néanmoins, les échantillons du lac Léman et de la station d'épuration différaient largement (s'excluant mutuellement l'un l'autre) dans leur capacité à degrader les composes chimiques. Dans deux cas provenant de la station d'épuration, le mme type de communauté microbienne s'est developpe après exposition aux composes, comme l'a démontré l'analyse TRFLP sur les fragments d'ARN 16S purifie de la communauté et amplifie par PCR. Afin de tester correctement la biodegradabilite d'un compose, il est donc important d'utiliser des communautés de depart de différentes origines Nous en concluons que le comptage par cytometrie de flux peut tre un outil de grande utilité pour mettre en valeur la biodegradabillite et la toxicité des composes chimiques.
Resumo:
La prison et l'évolution actuelle de la pénalité illustrent de façon paradigmatique les multiples contraintes qui viennent de plus en plus enserrer l'acte de soin. Contrainte spatiale et sensorielle par la restriction de l'espace et des mouvements consécutive à l'incarcération, contrainte réglementaire par le régime strict et stéréotypé qu'elle impose, légale par l'implication de la décision de justice sur l'avenir du patient, contrainte au soin lui-même par les injonctions qui se développent dans un but de prévention de la récidive et de diminution de la dangerosité sociale.
Resumo:
Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ 41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.
Resumo:
Cette contribution a pour objectif d'analyser le degré d'implémentation des systèmes d'indicateurs dans les établissements scolaires. Elle cherche aussi à savoir si les indicateurs retenus intègrent les préoccupations et les acquis de la recherche, et singulièrement de la recherche en économie de l'éducation, en matière de déterminants de la performance scolaire. Autrement dit, si les directions d'établissements utilisent des systèmes d'indicateurs, ces systèmes permettent-ils de suivre des variables dont la littérature a démontré ou tend à montrer l'influence sur la performance scolaire ? Autrement dit encore, y a-t-il une capitalisation des variables potentiellement explicatives de la performance scolaire dans les indicateurs utilisés pour le pilotage des établissements scolaires ?
Resumo:
[Table des matières] 1.1. Bref historique de la stratégie nationale de lutte contre le cancer. 1.2. Mandat d'évaluation. 1. 3. Approche d'évaluation choisie. 1.4. Phase 1 : programme d'évaluation 1999. 2. Conclusions et recommandations générales. 2.1. Stratégie et concept directeur. 2.2. Structure soutenant le programme national de lutte contre le cancer. 2.3. Rôle et fonctionnement des différents organes du programme national. 2.4. Collaborations. 2.5. Monitoring des programmes, évaluation de projets spécifiques et indicateurs à disposition pour l'évaluation globale. 3. Propositions pour la suite de l'évaluation. 4. Résumé de l'étude 1 : évaluation de la conception et de la mise en oeuvre de la stratégie au niveau national. 5. Studie 2 : Inventar der vorhandene Datenquellen und Indikatoren. 5.1. Zusammenfassung. 5.2. Allgemeine Schlussfolgerungen und Empfehlungen. 6. Studie 3 : Konzeptualisierung und Stand der Umsetzung der vier Krebsbekämpfungsprogramme. 6.1. Einleitung. 6.2. Zusammenfassung der programmübergreifende Ergebnisse : zum Konzeptualisierungsprozess, zum Steuerungsprozess, zur Vernetzung innerhalb der Programme und im relevanten Umfeld. 6.3. Zusammenfassung der programmspezifischen Ergebnisse : Brustkrebs, Hautkrebs, Lungenkrebs, Darmkrebs. 6.4. Empfehlungen : Programmübergreifende Empfehlungen, ergänzende programmspezifische Empfehlungen.