998 resultados para Main dominante et non-dominante
Resumo:
Malgré le succès de « Marxisme et philosophie du langage » (par la suite MPL) de V. Volochinov, ce texte n'a suscité que trois comptes rendus. Le quatrième est ébauché par A. Romm. Resté à l'état de notes, ce compte rendu est bien étudié par les chercheurs contemporains. En revanche, le compte rendu écrit par R. Chor n'a jamais été analysé de façon détaillée. Notre article a pour but de combler cette lacune et porte sur le contenu de l'analyse critique de MPL faite par Chor. Son examen révèle que le compte rendu écrit par cette dernière et MPL de Volochinov représentent la formulation de principes de base diamétralement opposés de la science du langage «marxiste». Cela se manifeste dans la réception des idées de F. de Saussure. Si Chor considère la conception de ce dernier comme fondement de la linguistique «théorique» portant sur la langue en tant que système de signes (ou de «signifiances» dans les termes de Chor), Volochinov rejette la théorie de Saussure. Il la considère comme «abstraite», d'où le nom «objectivisme abstrait» qu'il donne au saussurisme. En élaborant la philosophie du langage «marxiste», il s'appuie sur la néo-philologie idéaliste (les idées de Vossler et de son Ecole) définie dans MPL comme «subjectivisme individualiste». Volochinov propose d'étudier la «langue» comme fait réel, accessible à l'observation immédiate et non pas comme objet d'étude «théorique». Ce fait constitue une cible de la critique adressée par Chor à Volochinov
Resumo:
Au siècle des Lumières, les femmes sont exclues des principales professions médicales - à l'exception des sages-femmes - et leurs pratiques sont l'objet de nombreuses critiques de la part des médecins et chirurgiens qui promeuvent leurs propres connaissances sur le corps, soucieux d'acquérir un nouveau statut social, économique et politique. La médicalisation de la société ne se fait pas pour autant contre les femmes, car les plus aisées d'entre elles sont sollicitées comme médiatrices de la nouveauté. Dans ce contexte, cette thèse interroge la réception des ambitions médicales et la place prise par les femmes dans le processus de médicalisation. Les sources sollicitées ne sont pas celles qui sont produites par les soignants, afin de prendre de la distance avec leur discours normatif et professionnel, mais celles qui ressortent de l'intime : journaux et mémoires, correspondances et livres de raison, recueils de recettes féminins. Il s'agit ainsi de composer une histoire des souffrantes et des soignantes à partir de discours « de » femmes et non « sur » les femmes, à l'intersection de l'histoire socio¬culturelle de la médecine, de l'histoire des femmes et de celle du genre. Ceci limite l'analyse aux lettrées, membres de la noblesse ou de la haute bourgeoisie, française et helvétique en l'occurrence. Les savoirs féminins sont au coeur de l'analyse à travers la définition des lieux d'apprentissage du corps et des représentations corporelles que leurs écrits mettent en scène. Les pratiques de soin féminines sont également étudiées, en dissociant le soin de soi -incluant aussi bien l'automédication, le recours aux thérapeutes que l'influence de la parenté dans la gestion de la santé et de la maternité - du soin d'autrui qui se rapporte aux corps sur lesquels les femmes exercent leur pouvoir de soin et à leurs manières de soigner.
Resumo:
STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.
Resumo:
Cet article propose une approche globale de la santé des personnes lesbiennes, gays, bisexuelles, et transgenres (LGBT), où respect des singularités et non-jugement occupent une position centrale. Il invite à dépasser une vision centrée sur les risques liés au VIH. Pour qui n'a pas connu de questionnement en lien avec son orientation sexuelle ou son identité de genre, il est difficile de concevoir comment la découverte d'une caractéristique identitaire pendant l'enfance peut se transformer sous le regard des autres en un fardeau souvent invisible mais fréquemment associé avec une morbidité émotionnelle et médicale considérable. Cet article pose la question suivante : combien de personnes LGBT ressortent chaque semaine d'une consultation médicale sans avoir eu l'opportunité de bénéficier d'une écoute, d'un soutien et de soins adaptés ? [Abstract] This article offers a comprehensive approach to the health of lesbian, gay, bisexual and transgender (LGBT) people, where respect for diversity and non judgemental care play a central role. It calls for a health and medical vision that goes beyond HIV risk. For those who never had to question their own sexual orientation or gender identity, it is certainly difficult to understand how the discovery of one's identity trait in childhood or early adolescence can be transformed under social pressure into a burden which often remains invisible but is associated with considerable emotional and medical morbidity. This article raises the following question : How many LGBT patients go unnoticed every week, leaving the physician's office without an opportunity to receive appropriate listening, support and care ?
Resumo:
ABSTRACT : Les infections par le parasite Leishmania guyanensis se caractérisent par une dissémination depuis le site initial d'infection jusqu'aux tissus naso-pharyngés, responsable de la Leishmaniose à lésions secondaires muco-cutanées (LMC). Les lésions des patients atteints de LMC montrent une massive infiltration de cellules immunitaires, une réponse immunitaire élevée et la présence de parasites (bien qu'en très faible quantité). La LMC engendre une augmentation de l'expression de TNFa ainsi qu'un défaut dans le contrôle de la réponse immunitaire caractérisé par une absence de réponse à l'IL 10. La réponse immunitaire de l'hôte ainsi que la virulence du parasite sont deux facteurs reconnus pour le contrôle de l'infection. Le mécanisme de la pathogenèse de la LMC restent grandement incompris, surtout le mécanisme de dissémination de l'infection du site d'inoculation jusqu'aux sites secondaires d'infection (métastases) ainsi que les détails de la réponse de l'hôte contre le pathogène. Dans un modèle d'infection d' hamsters avec des parasites du Nouveau Monde, la classification des parasites Leishmania se fait en fonction de leur capacité à développer des métastases. Ce modéle d'infection a permis de caractériser différentes souches de parasites selon la classification de l'Organisation Mondiale de la Sante (OMS) tel que la souche de référence W>É-II/BR/78/M5313 qui est reconnue comme hautement métastatique alors que ces clones dérivés de M5313 montrent de grandes variations quand a leur capacité à créer des métastases. Les clones 13 et 21 sont métastatiques (M+) alors que les clones 3 et 17 sont nonmétastatiques (NI-). Les objectifs de cette thèse ont été d'étudier le rôle de la réponse immunitaire innée des macrophages après infection in vitro avec différents clones métastatiques et non-métastatiques du parasite L. guyanensis, ainsi que d'étudier la réponse immunitaire générée suite à une infection in vivo par les clones M+ et M- de L. guyanensis dans un modèle marin. L'analyse de la .réponse immunitaire des macrophages in vitro montrent qu'il y aune augmentation significative de leur statut d'activation après infection par des parasites M+ indiquée par la modulation des marqueurs d'activation de surface CD80, CD86 et CD40, ainsi que une augmentation significative de CXCL 10, CCLS, IL6 et TNFa au niveau transcription de l'ARNm et au niveau de la protéine. Cette phénomène d'activation a été observée chez les deux souches de souris C57BL/6 et BALB/c. L'utilisation d'un inhibiteur d'entrée des parasites (Cytochalsin D) ou d'un inhibiteur des fonctions endosomales (Chloroquine) diminue de manière significative la réponse des macrophages aux parasites M+. L'utilisation de macrophages déficients en TLR, MyD88, et TRIF a démontré que la réponse générée après infection par les parasites M+ était dépendante de la voie de signalisation de TRIF et TLR3. Lors d'infection in vivo par des parasites M5313, au moins 50% des souris BALB/c présentent un phénotype sensible caractérisé par des lésions non-nécrotiques qui ne guérissent pas, persistent plus de 13 semaines après infection et contiennent un nombre considérable de parasites. Ces souris développent une réponse immunitaire de type T helper 2 (Th2) avec un niveau élevé d'IL-4 et d'IL-10. Les autres souris ont un phénotype non-sensible, les souris développant peu ou pas de lésion, avec peu de parasites et une réponse immunitaire diminuée, caractérisée par un niveau faible d'IFNy, d'IL4 et d'IL10. De plus, les souris BALB/c infectées par un parasite L. guyanensis isolé à partir des lésions muco-cutanées d'un patient humain atteint de LMC ont démontrés un phénotype similaire aux souris infectées par la souche M5313 avec 50% des souris développant des lésions persistantes, alors qu'un parasite dérivé des lésions cutanées humains n'a montré qu'une faible sensibilité avec une lésion transitoire qui finit par guérir. Nous avons montré que la sensibilité de ces souris BALB/c dépend de l'IL-4 et de l'IL-10 car les souris IL-10-/sur fond génétique BALB/c ainsi que les souris BALB/c traitée avec de l'anti-IL4 étaient capables de contrôler l'infection par M5313. Les souris C57BL/6 sont résistantes à l'infection par le parasite M5313. Elles développent une lésion transitoire qui guérit 9 semaines après infection. Ces souris résistantes ont un très faible taux de parasites au site d'infection et développent une réponse immunitaire de type Thl avec un niveau élevé d'IFNr et peu d'IL4 et d'IL10. Les infections in vivo de souris déficientes en MyD88, TRIF, TLR3 ou TLR9 (sur fond génétique C57BL/6) ont indiqué que MyD88 et TLR9 étaient impliqués dans la résistance à l'infection par L. guyanensi, et que TRIF et TLR3 avaient un rôle important dans la sensibilité. Ce travail met en évidence le fait que la réponse immunitaire de l'hôte est modulée par le parasite selon leur caractérisation d'être soit M+ ou M-. Nous avons démontré également que plusieurs gènes et voies de signalisations étaient impliqués dans cette réponse favorisant le développement d'une LMC. ABSTRACT : Leishmania guyanensis parasites are able to disseminate from the initial site of cutaneous skin infection to the nasopharyngeal tissues resulting in destructive secondary lesions and the disease Mucocutaneous Leishmaniasis (MCL). The secondary lesions in patients have intense immune cell infiltration, elevated immune responses and the presence (albeit at low levels) of parasites. More specifically, MCL patients produce higher levels of TNFa and display impairment in their ability to control the immune response due to a defect in their ability to respond to IL10. Little is known about the pathogenesis of MCL, especially about the dissemination of the infection from the site of inoculation to secondary sites (metastasis) and the response of the host to the pathogen. The hamster model of L. guyanensis infection has previously characterized the WHO reference strain, L. guyanensis WHI/BR/78/M5313, as being highly metastatic. Clones of parasites derived from this reference strain show a differential ability to metastasize. This thesis studied the differential immune response generated by macrophages in vitro, or by mice in vivo, following infection with L. guyanensis parasites. A significant increase in the activation status of macrophages derived from C57BL/6 or BALB/c mice was observed after in vitro infection with L. guyanensis parasites when compared to non-metastatic parasites. This change in status was evidenced by the increased expression of surface activation markers, together with the chemokines, CXCL 10, CCLS, and cytokines, IL6 and TNFa. Furthermore, in vitro infection of macrophages isolated from mice deficient in either a specific Toll Like Receptor (TLR) or the adaptor molecules MyD88 or TRIF, indicated that the immune response generated following L. guyanensis metastatic parasite infection was reliant on the TRIF dependent TLR3 signalling pathway. In vivo footpad infection of BALB/c mice with the L. guyanensis M5313 parasites showed a reproducible susceptible phenotype, whereby at least 50% of infected mice developed non-healing, nonnecrosing lesions with high parasitemia that persisted over 13 weeks post infection. This phenotype was characterized by a Th2 type cytokine immune response with increased levels of IL4 and IL10 detected in the draining lymph nodes. IL 10 deficient mice on a BALB/c background, or BALB/c mice treated with anti-IL4 were able to control infection with L. guyanensis M5313 parasites, thereby proving that these cytokines were indeed implicated in the susceptibility to infection. Moreover, infection of BALB/c mice with patient isolated L. guyanensis parasites confirmed that MCL derived parasites were able to induce a susceptibility phenotype similar to that of L. guyanensis M5313. C57BL/6 mice, on the other hand, were highly resistant to infection with L. guyanensis M5313 parasites and produced transient footpad swelling that healed by week 9 post infection, together with low degrees of footpad parasitemia and a Thl polarized immune response. Infection of mice deficient in MyD88, TRIF, TLR3, and TLR9 (on a C57BL/6 background), indicated that MyD88 and TLR9 were involved in the resistance of these mice to infection, and that TRIF and TLR3 were involved in the susceptibility. This study has shown that the host response can be differentially modulated depending on the infecting parasite with several genes and pathways being identified that could be involved in promoting the development of MCL.
Resumo:
La présente thèse se propose d'étudier les fortifications connues dans le territoire d'Erétrie (île d'Eubée, Grèce), essentiellement aux époques classique et hellénistique (Ve-IIe siècles av. J.-C.). La plupart de ces constructions (forteresses de grand appareil, habitats fortifiés, enceintes de pierres sèches et tours) sont connues depuis le 19e siècle, mais ce travail constitue la première étude archéologique et historique d'ensemble qui leur est consacrée exclusivement. Bien que décrites depuis longtemps, les fortifications des campagnes grecques ont surtout été étudiées d'un point de vue architectural et historique. Cette approche a privilégié une interprétation militaire et stratégique, reliant les fortifications au sein de réseaux défensifs conçus à grande échelle et destinés à bloquer les accès et les frontières du territoire. Notre perspective est différente, puisqu'elle s'efforce de replacer chaque fortification dans la géographie antique en étudiant son interaction avec les plaines et les reliefs, les frontières, l'habitat, les voies de communication, les terres cultivables et la répartition de la population. Pour ce faire, nous avons établi une carte archéologique de l'Erétriade, conduit des prospections extensives autour des fortifications, ainsi que dans de nombreuses régions du territoire. Cette méthode permet d'aborder l'étude des fortifications rurales en adoptant des angles d'analyse différents : le premier, macro-géographique, met ainsi en valeur des caractéristiques générales, telles que la relation entre les fortifications et la capitale d'une part, les fortifications et les terres cultivables de l'autre ; au plan régional, ou micro-géographique, elle analyse la répartition des fortifications au sein de chaque district de l'Erétriade, voire des vallées ou des cantons, mettant en évidence le rôle local des ouvrages fortifiés. Au terme de cette recherche, il est apparu qu'une approche purement stratégique ou militaire ne permettait pas d'expliquer la répartition géographique des fortifications, puisque ces dernières se trouvent pour la plupart à l'intérieur du territoire et non à ses frontières. Elles ne sont pas non plus disposées de manière à pouvoir exercer une surveillance étroite sur les routes pénétrant dans la chôra ; aussi leur fonctionnement au sein d'un «réseau défensif frontalier ne peut pas être démontré. Dans l'Erétriade, la colonne vertébrale de la sécurité publique est formée par les habitats fortifiés, dèmes et kômai, complétée par l'existence de deux forteresses militaires ayant accueilli des garnisons. Placés toujours à bonne distance de la ville, puis à intervalles plus ou moins réguliers au sein du territoire, les habitats fortifiés jouent sur le plan régional le rôle de la ville : en cas d'invasion ou de danger, la population du dème ou des dèmes environnants pouvait y trouver refuge, mettant ainsi à l'abri récoltes, biens et animaux. L'apparition des fortifications territoriales correspond à l'extension maximale de l'occupation humaine, agricole et économique du territoire. Les communautés rurales qui en avaient la possibilité se dotèrent alors de fortifications, souvent sommaires, pour faire face à des menaces variées, mais surtout pour assurer leur propre sécurité et protéger un équilibre autarcique fragile. Il ne faut donc pas nécessairement attribuer la construction de fortifications à un événement historique précis, interprétation abusive courante dans l'étude des fortifications, en Grèce comme ailleurs. La fortification des habitats ruraux s'est réalisée de manière progressive, en réponse aux sentiments d'insécurité d'une population rurale toujours plus nombreuse. Faute de références littéraires et d'inscriptions, en particulier de décrets honorifiques, les forteresses et les habitats fortifiés de l'Erétriade constituent les derniers témoins de l'insécurité publique et des violences auxquelles fut confronté le territoire d'Erétrie aux époques classique et hellénistique.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Introduction: Les personnes âgées de 65 ans ou plus représentent 15% de la population générale dans les pays occidentaux. Le vieillissement de cette population va accroître encore cette proportion pour atteindre 20% dès 2030. Les urgences gériatriques représentent environ 15% des admissions dans les services d'accueil et de traitement des urgences (SAU), mais peu de données pré-hospitalières existent. Méthode: Etude rétrospective entre 2003 et 2007 des interventions des services d'urgences pré-hospitaliers (ambulances, SMUR) de notre région (env. 670'000 habitants) à partir des rapports de missions effectués pour chaque intervention par ces entités (n = 42'000). Extraction des données démographiques (âge, sexe), des lieux de prise en charge, des degrés de gravité (score NACA) et des catégories diagnostiques de la population âgée de 65 ans ou plus. Résultats: Les urgences gériatriques représentent entre 40 et 50% des interventions pré-hospitalières totales (ambulances, SMUR). Ces chiffres sont encore entre 4 et 8% pour les sujets très âgés de 90 ans et plus. Le sexe ratio H : F est de 0,72 pour les interventions des ambulances, alors qu'il est de 1,03 pour celles des SMUR. Le lieu de prise en charge est le domicile dans près de 70% des cas. Près des ¾ des interventions sont bénignes (degrés de gravité NACA 0-3), avec plus de 92% des interventions relevant de problèmes de type maladies (et non d'accidents). Pour les cas pris en charge par les SMUR, près de 70% sont de nature cardio-vasculaires. Discussion: La charge que représente les urgences gériatriques pour le secteur pré-hospitalier n'est pas négligeable et nécessite dès aujourd'hui une réflexion afin de dimensionner ce secteur aux exigences de ce type d'urgences pour le futur proche. Non seulement les moyens (personnel, véhicules, matériel) devront être proportionnés, mais aussi les particularités de la prise en charge, la formation spécifique et les aspects éthiques. Ce dernier aspect qui n'est pas des moindres et les limites de la prise en charge devront également être abordés. Conclusion: Les urgences gériatriques représentent près de la moitié des interventions des services pré-hospitaliers (ambulances, SMUR). Le vieillissement à venir de la population risque de mettre encore plus ces services sous «haute tension» et doit faire réfléchir ses acteurs et ses décideurs à s'adapter à cette évolution incontournable.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.
Resumo:
La BPCO est responsabled'une diminution de la qualité de vie et de la tolérance à l'exercice, et cause des exacerbations pouvant nécessiter des hospitalisations. Idéalement, sa prise en charge devrait comprendre des éléments pharmacologiques (par exemple bronchodilatateurs, corticostéroïdes inhalés) et non pharmacologiques (éducation, autogestion, plan d'action, réentraînement). L'objectif de cette revue systématique est d'évaluer l'efficacité des programmes de soins intégrés de la BPCO en termes de qualité de vie, de tolérance à l'exercice, de risque et de durée d'hospitalisation. Elle actualise les revues systématiques non Cochrane publiées auparavant.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Cet article contient un « tableau affectif », une analyse détaillée, largement basée sur des données empiriques, de la manière dont les gens jugent et se comportement moralement, où sont précisés les rôles respectifs des processus réflexifs et affectifs dans l'activité morale. Il est utile de distinguer différentes sortes de jugements, certains étant plus complexes que d'autres. Les « jugements sophistiqués » interviennent dans le cadre d'une activité rationnelle alors que les « jugements de valeur spontanés » sont une manière primitive et non réflexive d'évaluer le monde. Cette analyse permettra de prendre position dans le traditionnel débat sur l'internalisme et l'externalisme. Je défendrai l'idée que les normes et les jugements moraux que nous défendons n'exercent pas d'effet particulier sur nos actions si nous n'avons pas, par ailleurs, une attitude émotionnelle correspondante. Or cette dernière semble relever davantage de nos jugements spontanés.