115 resultados para Validité méthodologique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Executive SummaryIn Nepal, landslides are one of the major natural hazards after epidemics, killing over 100 persons per year. However, this figure is an underreported reflection of the actual impact that landslides have on livelihoods and food security in rural Nepal. With predictions of more intense rainfall patterns, landslide occurrence in the Himalayas is likely to increase and continue to be one of the major impediments to development. Due to the remoteness of many localities and lack of resources, responsibilities for disaster preparedness and response in mountain areas usually lie with the communities themselves. Everyday life is full of risk in mountains of Nepal. This is why mountain populations, as well as other populations living in harsh conditions have developed a number of coping strategies for dealing with adverse situations. Perhaps due to the dispersed and remote nature of landslides in Nepal, there have been few studies on vulnerability, coping- and mitigation strategies of landslide affected populations. There are also few recommendations available to guide authorities and populations how to reduce losses due to landslides in Nepal, and even less so, how to operationalize resilience and vulnerability.Many policy makers, international donors, NGOs and national authorities are currently asking what investments are needed to increase the so-called 'resilience' of mountain populations to deal with climate risks. However, mountain populations are already quite resilient to seasonal fluctuations, temperature variations, rainfall patterns and market prices. In spite of their resilience, they continue to live in places at risk due to high vulnerability caused by structural inequalities: access to land, resources, markets, education. This interdisciplinary thesis examines the concept of resilience by questioning its usefulness and validity as the current goal of international development and disaster risk reduction policies, its conceptual limitations and its possible scope of action. The goal of this study is two-fold: to better define and distinguish factors and relationships between resilience, vulnerability, capacities and risk; and to test and improve a participatory methodology for evaluating landslide risk that can serve as a guidance tool for improving community-based disaster risk reduction. The objective is to develop a simple methodology that can be used by NGOs, local authorities and communities to reduce losses from landslides.Through its six case studies in Central-Eastern Nepal, this study explores the relation between resilience, vulnerability and landslide risk based on interdisciplinary methods, including geological assessments of landslides, semi-structured interviews, focus groups and participatory risk mapping. For comparison, the study sites were chosen in Tehrathum, Sunsari and Dolakha Districts of Central/Eastern Nepal, to reflect a variety of landslide types, from chronic to acute, and a variety of communities, from very marginalized to very high status. The study uses the Sustainable Livelihoods Approach as its conceptual basis, which is based on the notion that access and rights to resources (natural, human/institutional, economic, environmental, physical) are the basis for coping with adversity, such as landslides. The study is also intended as a contribution to the growing literature and practices on Community Based Disaster Risk Reduction specifically adapted to landslide- prone areas.In addition to the six case studies, results include an indicator based methodology for assessing and measuring vulnerability and resilience, a composite risk assessment methodology, a typology of coping strategies and risk perceptions and a thorough analysis of the relation between risk, vulnerability and resilience. The methodology forassessing vulnerability, resilience and risk is relatively cost-effective and replicable in a low-data environment. Perhaps the major finding is that resilience is a process that defines a community's (or system's) capacity to rebound following adversity but it does not necessarily reduce vulnerability or risk, which requires addressing more structural issues related to poverty. Therefore, conclusions include a critical view of resilience as a main goal of international development and disaster risk reduction policies. It is a useful concept in the context of recovery after a disaster but it needs to be addressed in parallel with vulnerability and risk.This research was funded by an interdisciplinary grant (#26083591) from the Swiss National Science Foundation for the period 2009-2011 and a seed grant from the Faculty of Geosciences and Environment at the University of Lausanne in 2008.Résumé en françaisAu Népal, les glissements de terrain sont un des aléas les plus dévastateurs après les épidémies, causant 100 morts par an. Pourtant, ce chiffre est une sous-estimation de l'impact réel de l'effet des glissements sur les moyens de subsistance et la sécurité alimentaire au Népal. Avec des prévisions de pluies plus intenses, l'occurrence des glissements dans les Himalayas augmente et présente un obstacle au développement. Du fait de l'éloignement et du manque de ressources dans les montagnes au Népal, la responsabilité de la préparation et la réponse aux catastrophes se trouve chez les communautés elles-mêmes. Le risque fait partie de la vie quotidienne dans les montagnes du Népal. C'est pourquoi les populations montagnardes, comme d'autres populations vivant dans des milieux contraignants, ont développé des stratégies pour faire face aux situations défavorables. Peu d'études existent sur la vulnérabilité, ceci étant probablement dû à l'éloignement et pourtant, les stratégies d'adaptation et de mitigation des populations touchées par des glissements au Népal existent.Beaucoup de décideurs politiques, bailleurs de fonds, ONG et autorités nationales se demandent quels investissements sont nécessaires afin d'augmenter la 'resilience' des populations de montagne pour faire face aux changements climatiques. Pourtant, ces populations sont déjà résilientes aux fluctuations des saisons, des variations de température, des pluies et des prix des marchés. En dépit de leur résilience, ils continuent de vivre dans des endroits à fort risque à cause des vulnérabilités créées par les inégalités structurelles : l'accès à la terre, aux ressources, aux marchés et à l'éducation. Cette thèse interdisciplinaire examine le concept de la résilience en mettant en cause son utilité et sa validité en tant que but actuel des politiques internationales de développement et de réduction des risques, ainsi que ses limitations conceptuelles et ses possibles champs d'action. Le but de cette étude est double : mieux définir et distinguer les facteurs et relations entre la résilience, la vulnérabilité, les capacités et le risque ; Et tester et améliorer une méthode participative pour évaluer le risque des glissements qui peut servir en tant qu'outil indicatif pour améliorer la réduction des risques des communautés. Le but est de développer une méthodologie simple qui peut être utilisée par des ONG, autorités locales et communautés pour réduire les pertes dues aux glissements.A travers les études de cas au centre-est du Népal, cette étude explore le rapport entre la résilience, la vulnérabilité et les glissements basée sur des méthodes interdisciplinaires ; Y sont inclus des évaluations géologiques des glissements, des entretiens semi-dirigés, des discussions de groupes et des cartes de risques participatives. Pour la comparaison, les zones d'études ont été sélectionnées dans les districts de Tehrathum, Sunsari et Dolakha dans le centre-est du Népal, afin de refléter différents types de glissements, de chroniques à urgents, ainsi que différentes communautés, variant de très marginalisées à très haut statut. Pour son cadre conceptuel, cette étude s'appuie sur l'approche de moyens de subsistance durable, qui est basée sur les notions d'accès et de droit aux ressources (naturelles, humaines/institutionnelles, économiques, environnementales, physiques) et qui sont le minimum pour faire face à des situations difficiles, comme des glissements. Cette étude se veut aussi une contribution à la littérature et aux pratiques en croissantes sur la réduction des risques communautaires, spécifiquement adaptées aux zones affectées par des glissements.En plus des six études de cas, les résultats incluent une méthodologie basée sur des indicateurs pour évaluer et mesurer la vulnérabilité et la résilience, une méthodologie sur le risque composé, une typologie de stratégies d'adaptation et perceptions des risques ainsi qu'une analyse fondamentale de la relation entre risque, vulnérabilité et résilience. Les méthodologies pour l'évaluation de la vulnérabilité, de la résilience et du risque sont relativement peu coûteuses et reproductibles dans des endroits avec peu de données disponibles. Le résultat probablement le plus pertinent est que la résilience est un processus qui définit la capacité d'une communauté (ou d'un système) à rebondir suite à une situation défavorable, mais qui ne réduit pas forcement la vulnérabilité ou le risque, et qui requiert une approche plus fondamentale s'adressant aux questions de pauvreté. Les conclusions incluent une vue critique de la résilience comme but principal des politiques internationales de développement et de réduction des risques. C'est un concept utile dans le contexte de la récupération après une catastrophe mais il doit être pris en compte au même titre que la vulnérabilité et le risque.Cette recherche a été financée par un fonds interdisciplinaire (#26083591) du Fonds National Suisse pour la période 2009-2011 et un fonds de préparation de recherches par la Faculté des Géosciences et Environnement à l'Université de Lausanne en 2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Traditionnellement attribué à Nāgārjuna, le Pañcakrama («Procédé de la méditation en cinq étapes») est l'un des ouvrages les plus influents du bouddhisme tantrique indo-tibétain. Bien que ce texte ait été accessible au monde indianiste européen dès le milieu du XIXe siècle, seules quelques portions en ont été traduites à ce jour dans une langue occidentale. La présente thèse a pour but premier d'offrir une traduction française annotée du Pañcakrama dans son intégralité. Elle comporte deux parties principales : 1) l'introduction au texte et 2) la traduction annotée. Une édition critique de la version tibétaine du Caryāmelāpakapradïpa est incluse à titre d'annexe (3). (1) L'introduction comporte trois chapitres. Le chapitre 1, intitulé «Le corpus textuel de l'École Ārya», présente d'abord un aperçu des ouvrages de l'école exégétique (appelée l'«École Ārya» < tib. ̒phags lugs) du Guhyasamājatantra à laquelle appartient le Pañcakrama. Cet aperçu est suivi d'une présentation détaillée des informations bibliographiques et philologiques relatives au Pañcakrama et à ses commentaires indiens. Sont également décrits deux autres textes d'une importance particulière pour la compréhension du Pañcakrama, à savoir le Caryāmelāpakapradïpa et le Pradïpoddyotana. Deux textes mineurs apparentés au Pañcakrama, le Karmāntavibhāga et le Svādhisthānaprabheda, sont aussi présentés brièvement. Le chapitre 2 de l'introduction, « La formation textuelle du Pañcakrama», discute quelques problèmes relatifs à la structure textuelle du Pañcakrama et à sa position historique au sein du corpus de l'École Ārya. Nous y examinons d'abord différentes positions à l'égard des cinq (pañca) unités textuelles qui constituent l'ensemble appelé «Pañcakrama». La chronologie relative traditionnellement acceptée pour les trois textes principaux de l'École Ārya, le Pañcakrama, le Caryāmelāpakapradïpa et le Pradïpoddyotana, est ensuite réexaminée. Nous proposons, en conclusion de ce chapitre, la première moitié du IXe siècle comme date de composition du Pañcakrama. Le chapitre 3, «Une analyse synoptique du Pañcakrama», est une présentation du système yogique que décrivent le Pañcakrama et les ouvrages apparentés. Nous y organisons les sujets en cinq groupes : i) les trois discernements (viveka); ii) la théorie des prakrti et āloka; iii) les deux verités; iv) la notion du yuganaddha; v) les trois sortes de caryā. Cette analyse thématique du contenu du Pañcakrama se propose non seulement de présenter le système yogique de l'École Ārya, mais aussi d'éclaircir l'arrière-plan historique de la formation de cette école exégétique. (2) Notre traduction française du Pañcakrama est basée sur le texte sanscrit que nous avons édité en 1994 en collaboration avec le professeur K. Mimaki (Université de Kyoto). En interprétant le texte, nous avons essayé de distinguer deux sortes de données philologiques supplémentaires, à savoir, d'une part, les données tirée des sources qui précèdent chronologiquement le Pañcakrama et, d'autre part, celles offertes par des ouvrages tardifs tels que les commentaires. Une telle distinction est importante du point de vue méthodologique : afin de mieux comprendre le texte dans le contexte historique de sa composition, nous devons nous garder d'adopter sans discrimination les interprétations des commentateurs qui, éloignés dans le temps, sont parfois influencés par des développements tardifs et par des systèmes philosophico-religieux étrangers au texte de base. (3) Dans l'appendice, nous présentons une édition critique du texte tibétain du Caryāmelāpakapradïpa. Cette édition est basée sur quatre éditions xylographiques (Cone, Derge, Narthang et Pékin) ainsi qu'un manuscrit paracanonique qui transmet une version révisée par 'Gos Khug pa 1Has btsas (première moitié du XIe siècle).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions de mal-être au travail et de risques psychosociaux sont centrales dans le monde du travail actuel. L'ergonomie nous enseigne qu'une analyse des formes d'organisation du travail est nécessaire pour comprendre les origines des plaintes des travailleurs. Dans cette recherche, nous avons étudié une population spécifique, les employés du siège d'une organisation non gouvernementale humanitaire en Suisse (150 personnes environ). Partant du constat de l'expression de nombreuses plaintes de fatigue et de mal-être au travail par ces employés, nous avons cherché à objectiver ces plaintes et avons étudié les éléments d'organisation susceptibles d'y être liés.Dans le cadre d'une démarche inductive, nous avons utilisé conjointement des méthodes qualitatives (entretiens semi-directifs, observation non participante) et quantitatives (questionnaires) et avons appliqué le principe de triangulation méthodologique pour l'analyse des données.Trois thématiques relatives au mode de fonctionnement de l'organisation ont émergé des analyses : le fonctionnement dans l'urgence en permanence, la professionnalisation de l'organisation et le fort engagement des employés dans leur activité.L'organisation fonctionne selon une logique d'urgence en permanence. La nature de ses interventions, qui sont considérées de la plus haute importance, et la forte valorisation des activités « de terrain » conduisent à l'enfermement de l'activité dans la gestion des tâches urgentes, ce qui ne laisse pas de place à l'anticipation et à la planification. Ensuite, cette organisation a connu une forte croissance au cours des dernières décennies : d'une petite association, elle est devenue une véritable institution. La logique de fonctionnement institutionnelle n'est cependant pas venue remplacer totalement la logique associative, mais toutes deux cohabitent. L'organisation continue à demander à ses employés un engagement associatif et militant total mais applique parallèlement un management de type entrepreneurial, ce qui génère des messages paradoxaux pour les employés. Finalement, le fonctionnement de l'organisation dans son ensemble repose sur l'engagement de toute la chaîne des acteurs. Ceci est clairement intégré et repris par les employés du siège : ils relèvent que ce qu'ils font représente bien plus qu'un travail et qu'il est nécessaire de « tout donner », car les besoins sont immenses et la charge de travail énorme. Cependant, la limite entre engagement et surengagement conduisant à l'épuisement est très facilement franchie.Ces éléments participent à générer un environnement de travail potentiellement pathogène, où il est peu légitime pour l'employé de se préoccuper de sa propre santé, et où la charge de travail et le rythme ne lui laissent pas le temps de mettre en place des stratégies de préservation de sa santé. Ce mode de fonctionnement spécifique véhicule des messages paradoxaux et soumet les employés à des exigences contradictoires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que le manuel du WISC-IV fasse référence à la théorie de Cattell-Horn-Carroll (CHC), les indices calculés à partir de cette batterie (ICV, IRP, IMT et IVT) n'ont pas été définis sur la base du modèle CHC. Afin d'apporter un éclairage complémentaire sur les performances observées, nous recommandons néanmoins d'examiner les scores des subtests du WISC-IV en référence à la nomenclature des aptitudes cognitives proposées dans le modèle CHC. La première partie de cet article présente les normes francophones pour cinq facteurs CHC du WISC-IV, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm) et la vitesse de traitement (Gs), établies en utilisant une procédure d'approximation statistique. La seconde partie présente l'examen de la validité de ces normes, confrontées à des données recueillies sur un échantillon de 250 enfants. Nos résultats montrent que les corrélations entre les indices classiques du WISC-IV (ICV, IRP, IMT et IVT) et les scores composites CHC sont élevées, attestant de la validité des scores CHC. Ces normes permettent de calculer et d'utiliser les scores composites CHC en complément des indices standard, dans le cadre d'analyses normatives et ipsatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la schizophrénie, la religion a surtout été étudiée sous son aspect pathologique. Or, de nombreux patients s'appuient sur leurs ressources spirituelles pour faire face à leur maladie. Nous avons développé une grille d'entretien pour évaluer les relations entre spiritualité, pratiques religieuses et coping. Cet instrument a démontré que la religion a des effets positifs pour 71% et négatifs pour 14% des 115 patients évalués. La religion influence l'image de soi, les symptômes, l'adaptation psychosociale, la toxicomanie, les tentatives de suicide et l'adhérence au traitement. Elle devrait donc être systématiquement évaluée par le praticien. Notre instrument a démontré une bonne fidélité inter-juge et une validité théorique. Il ne nécessite pas de formation préalable. C'est pourquoi, nous le mettons à disposition des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mousse haplobiontique Physcomitrella patens est utilisée comme système génétique modèle pour l'étude du développement des plantes. Cependant, l'absence d'un protocole efficace de transformation a constitué jusqu'à présent un gros désavantage méthodologique pour le développement futur de ce système expérimental. Les résultats présentés dans le premier chapitre relatent la mise au point d'un protocole de transformation basé sur la technique de transfert direct de gènes dans des protoplastes par précipitation au PEG. Un essai d'expression transitoire de gènes a été mis au point. Ce protocole a été adapté afin de permettre l'introduction in vivo d'anticorps dans des protoplastes. Le protocole modifié permet d'introduire simultanément du DNA et des IgG dans les cellules, et nous avons démontré que ces anticorps peuvent inactiver spécifiquement le produit d'un gène co-introduit (GUS), ainsi que certaines protéines impliquées dans des processus cellulaires (tubuline). Cet essai, baptisé "essai transitoire d'immuno-inactivation in vivo", devrait être directement applicable à d'autres protoplastes végétaux, et permettre l'élaboration de nouvelles stratégies dans l'étude de processus cellulaires. Le second chapitre est consacré aux expériences de transformation de la mousse avec des gènes conférant une résistance à des antibiotiques. Nos résultats démontrent que l'intégration de gènes de résistance dans le génome de P. patens est possible, mais que cet événement est rare. Il s'agit là néanmoins de la première démonstration d'une transformation génétique réussie de cet organisme. L'introduction de gènes de résistance aux antibiotiques dans les protoplastes de P. patens génère à haute fréquence des clones résistants instables. Deux classes de clones instables ont été identifiés. La caractérisation phénotypique, génétique et moléculaire de ces clones suggère fortement que les séquences transformantes sont concaténées pour former des structures de haut poids moléculaire, et que ces structures sont efficacement répliquées et maintenues dans les cellules résistantes en tant qu'éléments génétiques extrachromosomaux. Ce type de transformation nous permet d'envisager des expériences permettant l'identification des séquences génomiques impliquées dans la replication de l'ADN de mousse. Plusieurs lignées transgéniques ont été retransformées avec des plasmides portant des séquences homologues aux séquences intégrées dans le génome, mais conférant une résistance à un autre antibiotique. Les résultats présentés dans le troisième chapitre montrent que les fréquences de transformation intégrative dans les lignées transgéniques sont 10 fois plus élevées que dans la lignée sauvage, et que cette augmentation est associée à une coségrégation des gènes de résistance dans la plupart des clones testés. Ces résultats génétiques indiquent que l'intégration de séquences d'ADN étranger dans le génome de P. patens a lieu en moyenne 10 fois plus fréquemment par recombinaison homologue que par intégration aléatoire. Ce rapport homologue/aléatoire est 10000 fois supérieur aux rapports obtenus avec d'autres plantes, et fournit l'outil indispensable à la réalisation d'expériences de génétique inverse dans cet organisme à haplophase dominante. THESIS SUMMARY The moss Physcomitrella patens is used as a model genetic system to study plant development, taking advantage of the fact that the haploid gametophyte dominates in its life cycle. But further development of this model system was hampered by the lack of a protocol allowing the genetic transformation of this plant. We have developed a transformation protocol based on PEG-mediated direct gene transfer to protoplasts. Our data demonstrate that this procedure leads to the establishment of an efficient transient gene expression assay. A slightly modified protocol has been developed allowing the in vivo introduction of antibodies in moss protoplasts. Both DNA and IgGs can be loaded simultaneously, and specific antibodies can immunodeplete the product of an expression cassette (GUS) as well as proteins involved in cellular processes (tubulins). This assay, named transient in vivo immunodepletion assay, should be applicable to other plant protoplasts, and offers new approaches to study cellular processes. Transformations have been performed with bacterial plasmids carrying antibiotic resistance expression cassette. Our data demonstrate that integrative transformation occurs, but at low frequencies. This is the first demonstration of a successful genetic transformation of mosses. Resistant unstable colonies are recovered at high frequencies following transformation, and two different classes of unstable clones have been identified. Phenotypical, genetic and molecular characterisation of these clones strongly suggests that bacterial plasmids are concatenated to form high molecular arrays which are efficiently replicated and maintained as extrachromosomal elements in the resistant cells. Replicative transformation in P. patens should allow the design of experiments aimed at the identification of genomic sequences involved in moss DNA replication. Transgenic strains have been retransformed with bacterial plasmids carrying sequences homologous to the integrated transloci, but conferring resistance to another antibiotic. Our results demonstrate an order of magnitude increase of integrative transformation frequencies in transgenic strains as compared to wild-type, associated with cosegregation of the resistance genes in most of these double resistant transgenic strains. These observations provide strong genetic evidence that gene targeting occurs about ten times more often than random integration in the genome of P. patens. Such ratio of targeted to random integration is about 10 000 times higher than previous reports of gene targeting in plants, and provides the essential requirement for the development of efficient reverse genetics in the haplodiplobiontic P. patens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet s'intéresse aux socialisations des jeunes cyclistes sur route dans la phase de la carrière où ils deviennent des espoirs nationaux. Pour certains, cela correspond au passage d'une structure sportive amateur de haut niveau vers une équipe professionnelle. Cette phase semble constituer un moment clé de la consommation de produits dopants. Ces espoirs sont exposés à un nouvel environnement et une nouvelle logique professionnelle s'impose à eux, avec ses espoirs de carrière et de profits et ses risques. Ils sont confrontés à de nouveaux groupes sociaux avec lesquels s'établit un système d'interactions. Avec le temps, ces groupes vont notamment inculquer aux jeunes coureurs de nouvelles normes en matière de santé, de fatigue, d'expériences, d'éthique et d'entraînement.Il s'agit plus particulièrement d'observer les modes de socialisation des jeunes espoirs du cyclisme pour comprendre comment s'immiscent les pratiques de dopage dans les biographies des sportifs. Dans une optique de prévention, ce travail se propose d'étudier les effets de la socialisation. Comme le souligne H. Becker (1985), la déviance est le fruit d'un acte collectif. Il s'agit alors de comprendre comment, au contact de divers groupes encadrants (pairs, entraîneurs, dirigeants, médecins), les savoir-faire mais aussi les normes, les valeurs se construisent au cours de la phase de socialisation professionnelle. Il est important de comprendre les effets des interactions entre ces groupes et le jeune espoir. Cette socialisation semble correspondre à l'inculcation d'une culture cycliste qu'il s'agira de décrire en prenant en compte deux formes de transmission des normes : une explicite, à certains moments de la journée, où sont abordées les techniques de course, les tactiques, les modes d'entraînement et une implicite, pendant laquelle sont diffusées des valeurs qui conduisent le sportif à faire le choix du dopage. Dans le cas du dopage, nous nous intéresserons notamment aux normes de santé, d'éthique, aux conceptions de la pratique sportive en adéquation avec le suivi médical pendant la phase amateur puis néo-professionnelle. La formation, ou transformation, de ces représentations sera appréhendée à travers les interactions entre coureurs et encadrement lors des différents moments de leur quotidien. Il s'agira également d'étudier le cadre social de ces interactions. A partir des récits de vie collectés, nous essayerons de déterminer les moments où les choix s'opèrent et nous y analyserons les conduites.L'acquisition des représentations associées au dopage est le produit du double mouvement de l'action sociale des individus et des effets des structures organisationnelles et institutionnelles. En conséquence, nous nous intéresserons également à l'influence des différents dispositifs tels que la famille, l'école, le club, la structure médicale, la fédération nationale, sur les représentations des coureurs.Cette étude reposera sur une analyse comparée des cyclistes belges, français et suisses. Les carrières seront analysées à partir d'entretiens semi-directifs (75) auprès de (1) jeunes athlètes (18-23 ans) qui vivent les phases de professionnalisation, (2) d'anciens cyclistes ayant vécu les normes de socialisation du milieu et (3) des acteurs clefs de l'organisation des différents dispositifs (entraîneurs, dirigeants, médecins). Notre démarche méthodologique s'adosse à celles déjà expérimentées dans des travaux antérieurs (notamment, Brissonneau, 2003).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Au travers de différents exemples américains et européens, ce premier article met en évidence le manque de consensus actuel dans les réponses données à cette question par les experts du domaine. Cette disparité dans le traitement des cas de datation de traces digitales est sans doute due au fait qu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. En effet, cet article recense les études menées sur la datation des traces digitales sous forme d'une revue critique et met ainsi en évidence le fait que la plupart de ces méthodes souffrent de problèmes limitant leur application pratique. Toutefois, cette revue permet également d'identifier une approche ayant le potentiel d'apporter des réponses pratiques aux questions de datation, à savoir l'approche se basant sur l'étude du vieillissement de composés cibles intrinsèques aux traces digitales. Cette approche prometteuse ouvre des pistes afin de proposer une méthodologique formelle de datation des traces digitales. Une telle proposition permettrait d'apporter une information pertinente à la justice et fera l'objet de la seconde partie de cet article.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article se veut une revue des effets ergogéniques et potentiellement délétères des principaux compléments alimentaires consommés par les sportifs populaires ou d'élite. De nombreux produits sont proposés sur le marché avec des allégations prometteuses, le plus souvent sans preuve scientifique sur leur validité ou leur innocuité. Les antioxydants n'augmentent ni la force ni l'endurance. La créatine améliore la capacité de récupération pour les exercices en intervalle anaérobie mais pas en course à pied ni en natation. L'hormone de croissance et les stéroïdes anabolisants augmentent la synthèse protéique et la masse maigre mais comportent des effets secondaires graves et souvent irréversibles. Les médecins, les diététiciens et les fédérations sportives ont un rôle important à jouer dans l'information et la prévention, afin d'éviter des attitudes néfastes pour la santé, pouvant même créer des addictions. This article reviews the evidence-based ergogenic potential adverse effects of the most common products in use by recreational and elite athletes today. This is an aggressively marketed and controversial area of sports medicine wordwide. It is therefore important for the scientific societies, clinicians, dieticians sports federations to be well versed in the more popular supplements and drugs in order to have an important role in information and prevention attitudes that can lead to health risks or addictions!

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Ce travail de thèse s'articule autour de l'importance de l'évaluation de la fonction vasculaire et des répercussions au niveau central, cardiaque, des perturbations du réseau vasculaire. Les maladies cardiovasculaires sont prédominantes dans notre société et causes de morbidité et mortalité importante. La mesure de la pression artérielle classique reste le moyen le plus utilisé pour suivre la santé des vaisseaux, mais ne reflète pas directement ce qui se passe au niveau du coeur. La tonométrie d'aplanation permet depuis quelques années de mesurer l'onde de pouls radial, et par le biais d'une fonction mathématique de transfert validée, il est possible d'en déduire la forme et Γ amplitude de l'onde de pouls central, donc de la pression aortique centrale. Cette dernière est un reflet bien plus direct de la post-charge cardiaque, et de nombreuses études cliniques actuelles s'intéressent à cette mesure pour stratifier le risque ou évaluer l'effet d'un traitement vasculaire. Toutefois, bien que cet outil soit de plus en plus utilisé, il est rarement précisé si la latéralité de la mesure joue un rôle, sachant que certaines propriétés des membres supérieurs peuvent être affectées par un usage préférentiel (masse musculaire, densité osseuse, diamètre des artères, capillarisation musculaire, et même fonction endothéliale). On a en effet observé que ces divers paramètre étaient tous augmentés sur un bras entraîné. Dès lors on peut se poser la question de l'influence de ces adaptations physiologiques sur la mesure indirecte effectuée par le biais du pouls radial. Nous avons investigué les deux membres supérieurs de sujets jeunes et sédentaires (SED), ainsi que ceux de sujets sportifs avec un développement fortement asymétrique des bras, soit des joueurs de tennis de haut niveau (TEN). Des mesures anthropométriques incluant la composition corporelle et la circonférence des bras et avant-bras ont montré que TEN présente une asymétrie hautement significative aux deux mesures entre le bras dominant (entraîné) et l'autre, ce qui est aussi présent pour la force de serrage (mesurée au dynamomètre de Jamar). L'analyse des courbes centrales de pouls ne montre aucune différence entre les deux membres dans chaque groupe, par contre on peut observer une différence entre SED et TEN, avec un index d'augmentation diastolique qui est 50 % plus élevé chez TEN. Les index d'augmentation systolique sont identiques dans les deux groupes. On peut retenir de cette étude la validité de la méthode de tonométrie d'aplanation quel que soit le bras utilisé (dominant ou non-dominant) et ce même si une asymétrie conséquente est présente. Ces données sont clairement nouvelles et permettent de s'affranchir de cette variable dans la mesure d'un paramètre cardiovasculaire dont l'importance est actuellement grandissante. Les différences d'index diastolique sont expliquées par la fréquence cardiaque et la vitesse de conduction de l'onde de pouls plus basses chez TEN, causant un retard diastolique du retour de l'onde au niveau central, phénomène précédemment bien décrit dans la littérature.