999 resultados para Classification des facteurs de risques
Resumo:
La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Épidémiologie et classification des troubles bipolaires - Maltraitance dans l'enfance: un facteur de mauvais pronostic pour le traitement des troubles bipolaires - Hypothèses neurobiologiques et cibles des stabilisateurs de l'humeur - Approche critique des études sponsorisées par l'industrie pharmaceutique - Pharmacogénétique des troubles bipolaires - Comment définir un stabilisateur de l'humeur - Lithium - Carbamazépine et oxcarbazépine - Lamotrigine - Prégabaline et gabapentine - Topiramate - Valproate - Antipsychotiques de seconde génération - Aripiprazole - Clozapine - Olanzapine - Quétiapine - Rispéridone et hydroxyrispéridone - Autres médicaments utilisés dans les troubles bipolaires - Médicaments pouvant potentiellement induire un syndrome (hypo)maniaque - Médicaments pouvant potentiellement induire un état dépressif - Recommandations sur la prise en charge du trouble bipolaire - Quand introduire un stabilisateur de l'humeur ? - Traitement d'un premier épisode maniaque - Le traitement des phases maniaques - Traitement de la dépression et rôle des antidépresseurs - Prévention du suicide - Traitement des états mixtes - Le traitement des cycles rapides - Traitement du trouble bipolaire II - Combinaisons de traitements pour les phases maniaques - Traitements combinés pour la prévention de rechutes/récidives - Troubles bipolaires, grossesse et allaitement - Troubles bipolaires chez l'enfant et l'adolescent - Troubles bipolaires chez les patients d'âge gériatrique - Traitement du trouble bipolaire et du trouble déficit d'attention-hyperactivité (TDA-H) - Traitement des troubles bipolaires avec troubles anxieux - Comorbidité avec les addictions - Traitement des troubles du sommeil chez le patient bipolaire - Traitement des troubles bipolaires et des troubles de la personnalité borderline - Traitement des troubles bipolaires en présence d'une pathologie somatique
Resumo:
Les forêts dont le volume sur pied augmente contribuent à atténuer les changements climatiques et constituent un puits de carbone. En Suisse, seul très peu d'entreprises forestières valorisent le service de puits de carbone. Ce travail vise à chercher les raisons expliquant cette réticence. Les facteurs politiques et juridiques influençant les décisions des entreprises forestières sont analysées à l'aide du modèle des régimes institutionnels de ressource. Les résultats obtenus sont vérifiés et complétés à l'aide d'informations collectées lors d'interviews d'experts menées auprès d'entreprises forestières et décideurs politiques. Cette étude identifie des facteurs favorisant ou entravant la valorisation du service de puits de carbone des forêts et propose des options d'action.
Resumo:
L'épuisement des énergies fossiles est un thème d'actualité dont les prémices datent, selon l'opinion courante, des années 1970 et du premier choc pétrolier. En réalité, c'est une préoccupation plus ancienne, intimement liée à l'ère industrielle. Dans la deuxième partie du XIXème siècle, les économistes se sont penchés sur la question de l'épuisement des minerais, 'objet non identifié' jusqu'alors et nécessitant la mise sur pied de nouveaux outils d'analyse (effet-rebond chez Jevons, rente minière chez Marshall-Einaudi notamment). Avec le progrès des techniques et l'apparition de nouvelles énergies (pétrole, hydro-électricité), leurs craintes de déclin industriel se sont progressivement dissipées dans les années 1910 et 1920. Mais ces évolutions tenant à l'histoire des faits ne sont pas les seules à considérer. Des facteurs internes à la discipline économique, comme l'émergence du marginalisme dans les années 1870 et de la théorie de l'épargne et du capital dans les années 1890, ont aussi changé le regard des économistes sur la question de l'épuisement des ressources. Pourquoi ? Comment ? Quels enseignements peut-on en tirer pour les défis environnementaux d'aujourd'hui ? Voilà les questions qui sont traitées dans ce travail de thèse.
Resumo:
L'asthme est une des maladies chroniques des plus fréquentes chez l'enfant qui touche 7,6 à 10,7 % de la population infantile française (ISAAC, 1998). Un des facteurs étiologiques impliqué dans cette pathologie est les moisissures présentes dans l'habitat. Néanmoins, il reste toujours à clarifier quelle est la fenêtre d'exposition la plus critique au cours de l'enfance et à comprendre le mécanisme de cette étiologie. En effet, des effets contradictoires ont été associés à l'exposition précoce des enfants aux moisissures. L'exposition à une espèce de moisissure dominante augmente l'incidence de l'asthme chez le jeune enfant, alors que l'exposition à des bioaérosols riches et diversifiés en micro-organismes, comme ceux présent dans les fermes, le diminue. Ces deux effets font l'objet des deux études choisies dans cette note. [Auteure]
Resumo:
La prévalence de l'obésité a considérablement augmentée ces dernières années et a un impact majeur sur la santé publique étant donné les diverses pathologies qui sont liées à ce trouble. Enjeu Diverses études ont montrées que les traitements actuels sont inefficaces à long terme. Une des raisons principales de cette inefficacité est l'importante prévalence de troubles alimentaires chez les patients obèses cherchant une perte de poids. Les personnes obèses atteintes de troubles du comportement alimentaire présentent des dysfonctions psychologiques plus fréquentes et plus sévères que les patients obèses sans troubles du comportement alimentaire. Des traitements spécifiques comprenant des supports psychologiques et la détection de dysfonctions psychologiques sont donc essentiels chez de tels patients afin d'améliorer les résultats de perte de poids à long terme. Article Jusqu'à aujourd'hui, aucune donnée n'était disponible concernant d'éventuels facteurs prédictifs pour l'identification de troubles psychologiques chez des patients souffrant de troubles du comportement alimentaire. Le but de notre étude est d'analyser les associations entre troubles du comportement alimentaire et dysfonction psychologique chez des patients obèses cherchant à perdre du poids et d'identifier des facteurs prédictifs permettant le développement de futurs outils diagnostiques. Notre étude a été menée à la consultation d'obésité du CHUV. Au final, 150 femmes tentant de perdre du poids ou de contrôler des compulsions alimentaires ont accepté de participer à notre étude. Différentes mesures anthropométriques et des informations sur leur histoire de poids et de régimes ont été récoltées. Les troubles du comportement alimentaire ainsi que le profil psychologique ont été évalués lors d'entretiens spécialisés à l'aide de divers questionnaires (BITE, EDI-2, BDI-II, IASTA-Y, RAS, Fear M and M). Conclusion Environ la moitié des patientes présentent des troubles du comportement alimentaire et 41% un haut degré de tels troubles. Environ 50% ont des symptômes modérés ou majeurs de dépression et 77% souffrent d'anxiété. Il n'y a pas de corrélation entre les marqueurs psychologiques et l'âge ou le BMI mais de fortes corrélations entre les marqueurs psychologiques et les divers composants du questionnaire BITE et la plupart des composants du questionnaire EDI-2. Ainsi, les femmes obèses cherchant à perdre du poids ont une grande prévalence de dysfonction psychologique. La prévalence et la sévérité des troubles du comportement alimentaire et des troubles psychologiques ne sont pas corrélées avec le degré et le type d'obésité mais la prévalence et la sévérité des troubles psychologiques augmentent avec le degré de troubles du comportement alimentaire. De plus, nos autres analyses ont montré que l'item Ineffectiveness de l'EDI-2 est la variable la plus liée au score psychologique.
Resumo:
Enjeux La réussite d'une transplantation rénale ou hépatique intègre non seulement le succès de l'acte chirurgical et sa prise en charge médicale post-greffe, mais également pour le patient greffé l'assurance d'une nouvelle qualité de vie dont le retour au travail fait partie. Le retour au travail après greffe est cependant généralement peu étudié dans la littérature et peu discuté semble-t-il au niveau médical que ce soit avant ou après greffe, quand bien même d'un point de vue médico-socio-économique il s'agit d'un sujet important compte tenu des coûts liés à un arrêt de travail prolongé ou à une rente pour incapacité de travail. Contexte Après une greffe réussie, il n'existe théoriquement plus de facteur limitant et peu de contre-indications médicales liées à la greffe pour empêcher une reprise progressive de l'activité professionnelle. Or en réalité le taux de retour au travail après greffe est généralement faible, variant entre 30 et 60% selon la littérature. Ceci a incité l'auteur de cette présente étude à essayer d'en connaître les raisons. Ainsi, l'hypothèse a été que certains facteurs professionnels (« en activité professionnelle ou non avant greffe », « être diplômé ou non»), individuels («âge», «genre», «type d'organe greffé») ou médicaux (« complications médicales aiguës de moins de 6 mois post greffe ») influencent négativement ou positivement le retour au travail des patients greffés. L'étude a porté sur un petit collectif volontaire de patients greffés rénaux et hépatiques opérés entre 1993 et 2003 et suivis depuis lors au centre de transplantation d'organes (CTO) du CHUV. Il leur a été administré en face à face un questionnaire médical spécialement conçu pour l'étude. Conclusion L'étude montre que le taux de retour au travail après greffe rénale ou hépatique s'élève à 39% et qu'il existe effectivement des facteurs pouvant influencer le retour au travail après greffe. Ainsi, être « âgé de moins de 45 ans », être « au bénéfice d'une formation (diplôme) » et « travailler les deux ans précédent la greffe » sont des facteurs significatifs de retour au travail après greffe. Perspective Gage de qualité de vie, le retour au travail après greffe doit être encouragé et favorisé quand il se peut, en s'aidant des facteurs connus qui l'influencent positivement ou négativement. Pour cela, il est indispensable qu'au stade pré greffe déjà s'instaure un dialogue sur le sujet entre patients en attente de greffe et personnel médico-social, afin de mettre en oeuvre le plus précocement possible les mesures socio-professionnelles adéquates comme cela se fait déjà en Allemagne ou aux Etats-Unis par exemple.
Resumo:
La schizophrénie est une maladie chronique qui touche 1% de la population mondiale. Elle¦comporte des facteurs de risque génétiques et environnementaux. Leur interaction pendant le¦développement du cerveau mène aux déficits de la synchronisation neuronale et aux¦dommages cellulaires qui prédisposent l'individu à développer, à l'âge adulte, la¦schizophrénie (Kim Do et al.). Kim Do et al (2009) ont découvert qu'une anomalie génétique¦de la synthèse du glutathion (GSH) est responsable de la dérégulation redox qui mène au¦stress oxydatif qui, à son tour, est impliqué dans la pathogénèse de la schizophrénie pendant le¦développement du cerveau. Le GSH protège les cellules contre les radicaux libres produits par¦le stress oxydatif. En effet, les radicaux libres provoquent la peroxydation des lipides,¦l'oxydation des protéines et des lésions au niveau de l'ADN, et par conséquent, des¦dommages cellulaires.¦Le GSH est produit par l'enzyme clé GCL (glutamate-cystéine ligase). Le GCL est composé¦de deux sous-unités: GCL-M (sous-unité modulatrice) et GCL-C (sous-unité catalytique). Des¦polymorphismes des gènes de GCL-M et GCL-C ont été trouvé associés avec la¦maladie (Tosic et al., 2006 ; Gysin et al., 2007). Dans cette étude, on se focalisera sur le TNR¦GAG (répétitions de tri-nucléotides) du GCL-C. En effet, GCL-C possède sur son codon¦START des variances avec 7, 8 ou 9 répétitions GAG générant ainsi six génotypes différents:¦7/7, 7/8, 7/9, 8/8, 8/9 et 9/9. Dans deux cohortes, les génotypes 8/7, 8/8, 8/9 et 9/9, appelés¦génotype à haute risque (HR), se trouvent en plus grand nombre chez les patients tandis que¦les génotypes 7/7 et 7/9 (génotypes à bas risque (BR)) sont plus nombreux chez les sujets¦témoins (Gysin et al., 2007). En plus, les analyses des cultures de fibroblastes montrent que¦chez les génotypes HR, en comparaison avec ceux à BR, l'expression de protéine de GCL-C,¦l'activité enzymatique de GCL et le taux de GSH sont nettement plus bas.¦Cette étude se base sur le DIGS (diagnostic interview for genetic studies), un entretien semistructuré¦qui récolte des données psychopathologiques. Grâce à cet outil, nous pouvons¦comparer les données des sujets avec les génotypes HR versus BR. Plus précisément, on va se¦focaliser sur le chapitre des psychoses du DIGS chez les schizophrènes, en se posant la¦question suivante: « Est-ce qu'il y a une différence des phénotypes entre BR et HR ? » .¦La méthode de travail va se focaliser sur : (a) revue de la littérature, (b) l'analyse et la¦compréhension du DIGS et (c) l'analyse, l'interprétation et la synthèse des résultats¦statistiques du chapitre « psychose » du DIGS.¦Les résultats nous indiquent une différence significative entre les deux groupes pour les¦symptômes suivants : (a) les idées délirantes de persécution, (b) la durée de l'émoussement¦affectif et des affects inappropriés et (c) les croyances inhabituelles ou pensées magiques¦pendant la phase prodromique.¦Étant donné que cette étude se base sur un échantillon assez restreint, il faudrait la consolider¦avec un plus grands nombre de cas et il serait intéressant de le reproduire dans une autre¦cohorte. En conclusion, le travail peut ouvrir de nouvelles perspectives, surtout pour les¦symptômes mal traités ou pas traités par les traitements actuels.
Resumo:
Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.
Resumo:
La survie actuelle après correction chirurgicale de la Tétralogie de Fallot (TDF) est de 97% à 12 ans. Les principaux risques à long terme sont une régurgitation pulmonaire ou une sténose récidivante de la sortie droite du coeur, une tachycardie ventriculaire pouvant entrainer une mort subite. Le but de cette étude rétrospective est de comparer la correction chirurgicale de la TDF avec patch pulmonaire versus un conduit valvé xénogreffe. Le collectif se compose de 127 patients entre 2 mois et 16 ans, opérés pour une TDF entre l'année 2000 et 2010. La correction chirurgicale était soit avec un patch, soit avec un conduit valvé à la sortie droite. Cette étude montre d'une part qu'il n'y a pas de différence de survie à un mois entre les deux méthodes opératoires. De plus, elle montre que, lors de la pose d'un patch, il y a plus de sept fois plus d'insuffisances valvulaires modérées à sévères après un mois que lors de la pose d'un conduit valvé. D'autre part, elle démontre que la différence de gradient résiduel à la sortie droite entre la correction avec patch ou conduit n'est pas significative et que la valeur du gradient résiduel à la sortie droite en postopératoire n'est pas représentative du gradient résiduel à un mois. De plus, cette étude prouve que les coronaires aberrantes ainsi qu'un shunt palliatif de Blalock-Taussig sont des facteurs de risque indépendants pour une correction avec un conduit valvé.
Resumo:
L'agitation postopératoire chez les patients adultes dans les premières heures après le réveil¦est un domaine peu étudié. Nous avons effectué des recherches pour trouver des études¦concernant l'agitation postopératoire sur Pubmed pour les 10 dernières années. Les termes de¦recherche étaient agitation, emergence delirium, facteurs de risques (anglais : risk factors),¦agitation treatment, Riker scale. Ceci n'a permis de trouver que 2 études à propos de ce sujet.¦Pourtant, elle concerne environ 5% (1) (2) des patients adultes opérés, ce qui n'est pas¦négligeable.¦En effet, elle peut avoir de sérieuses conséquences en terme de lésions des patients¦(arrachement de cathéter, de tube d'intubation) ou du personnel soignant, ainsi qu'en terme de¦coûts occasionnés par les différentes complications.¦Selon l'étude de Lepousé (1) et l'étude de Radtke (2), certains facteurs seraient déterminants¦dans la survenue de l'agitation postopératoire, dont quelques-uns sont évitables.¦Dans l'étude observationnelle prospective de Radtke (2), il a déjà été démontré que l'âge était¦en lien avec l'agitation postopératoire. Les tranches d'âge les plus à risque sont : les moins de¦40 ans (18-39 ans) (OR=2.1, CI=1.1-3.8, p=0.02) et les plus de 64 ans (OR=2.1, CI=1.1-3.4,¦p=0.02). Les études de Lepousé (1) et de Radtke (2) ont montré que la prémédication par¦benzodiazépines pourrait aussi être un facteur de risque (Lepousé (1): CI=1.1-3.3, p=0.02)¦(Radtke (2): OR=2.4, CI=1.0-5.6, p≤0.05). L'intensité de la douleur est également liée à la¦survenue d'une agitation postopératoire (OR=1.8, CI=1.0-3.0, p<0.04) (2). D'autres facteurs¦comme certains médicaments utilisés lors de l'anesthésie (l'étomidate) (2), le type de¦chirurgie [abdominale (1) (2), musculosquelettique (2), de la tête et du cou(2), de la¦poitrine(1)] seraient en lien avec la survenue d'une agitation postopératoire.¦4¦Il restait toutefois beaucoup de facteurs dont la relation avec l'agitation postopératoire n'avait¦pas été évaluée ou dont l'étude n'a pas eu de résultat significatif [par exemple, les¦benzodiazépines à long terme (1), ou l'anesthésie locorégionale(2)].¦Le but de cette étude était premièrement de déterminer si la fréquence de l'agitation¦postopératoire dans la population prise en compte ici est comparable à celle observée dans les¦études de Radtke et de Lepousé.¦Ensuite il s'agissait d'identifier, lors d'agitation postopératoire chez des patients adultes,¦parmi certains facteurs possibles, ceux pouvant être en lien avec l'agitation postopératoire, et¦s'ils étaient similaires à ceux retrouvés dans les études déjà publiées.¦Les comorbidités sont un de ces facteurs. La dose de benzodiazépines dans les 24 heures¦précédent l'intervention, ainsi que les benzodiazépines en médication chronique, par un effet¦paradoxal, pourraient être en lien avec un état d'agitation. Dans le même ordre d'idée, nous¦avons comparé le type d'anesthésie utilisé, locorégionale versus générale ou combinée, avec¦la survenue de cet état. Nous nous sommes aussi penchés sur la dose intraopératoire totale¦d'opioïdes et l'administration intraopératoire d'atropine, médicaments largement utilisés lors¦des interventions, et qui seraient des facteurs modifiables si une relation avec l'agitation était¦démontrée. Enfin, l'hypotension intraopératoire provoquant une hypoperfusion cérébrale¦relative pourrait être liée à la survenue d'une agitation postopératoire.¦Nous avons également observé d'autres variables, comme l'intensité de la douleur, déjà¦démontrée comme étant en rapport avec l'agitation postopératoire, et l'hypoxie¦intraopératoire, qui pourrait favoriser une hypoxie cérébrale, et par là une agitation.¦Enfin, nous avons cherché s'il existe un lien entre la survenue d'une agitation postopératoire¦et d'un état confusionnel postopératoire, c'est-à-dire se développant dans la semaine suivant¦l'opération, une question qui n'avait pas encore été étudiée.
Resumo:
Le rapport international le plus récent concernant la maltraitance infantile date de 2006 : il s'agit du Rapport mondial sur la violence contre les enfants, du Secrétaire général des Nations Unies (1). La définition retenue pour la maltraitance infantile s'inspire de celle du Rapport mondial sur la violence et la santé, de l'OMS en 2002 (2) : «La menace ou l'utilisation intentionnelle de la force physique ou du pouvoir contre un enfant par un individu ou un groupe qui entraîne ou risque fortement de causer un préjudice à la santé, à la survie, au développement ou à la dignité de l'enfant.». Il existe différentes formes de maltraitance : - la maltraitance physique (brutalités, coups, blessures, brûlures, etc.) la maltraitance psychologique (insultes, humiliation, isolement, terroriser l'enfant, etc.) - la maltraitance sexuelle (exhibitionnisme, attouchements, relations sexuelles, etc.) - les négligences (manque d'attention et de soins) Dans la majorité des cas, plusieurs formes de maltraitances sont présentes chez un enfant victime de mauvais traitements ; elles se chevauchent (3). L'Observatoire national de l'Action Sociale Décentralisée (ODAS) a réalisé une classification des enfants à protéger, les définitions sont les suivantes (4): L'enfant maltraité est « celui qui est victime de violences physiques, d'abus sexuels, de cruauté mentale, de négligences lourdes ayant des conséquences sur son développement physique et psychologique. » L'enfant en risque est « celui qui connaît des conditions d'existence qui risquent de mettre en danger sa santé, sa sécurité, sa moralité, son éducation ou son entretien, mais qui n'est pas pour autant maltraité. » L'enfant en souffrance est « un enfant aimé et soigné mais qui souffre des conditions d'existences qui fragilisent ou menacent son développement et son épanouissement personnel. » En Suisse, peu de données sont disponibles concernant la prévalence de la maltraitance étant donné la difficulté à récolter des données. Selon l'Office Fédéral de la Statistique suisse, les résultats d'une étude de 2004 montre une diminution des châtiments corporels par rapport à une étude semblable réalisée 12 ans auparavant (5). Cependant, la maltraitance infantile est un problème de santé publique du fait de la gravité de ses conséquences sur la santé physique, mentale et sociale de l'individu et de son retentissement sur la communauté ainsi que de sa fréquence estimée dans la population suisse. Elle a des effets néfastes sur la santé de l'enfant par mortalité directe ou morbidité directe ou indirecte et représente également un facteur de risque pour la santé physique et mentale, le développement et les perspectives de réalisation personnelle du jeune adulte et de l'adulte (6). On sait aujourd'hui que le nombre de cas de maltraitance signalés en Suisse est en augmentation. Ceci démontre que la maltraitance est un phénomène courant. Cependant, les professionnels ne pensent pas MF / Travail de master en médecine / 2011-2012 3 que le phénomène de la maltraitance infantile soit en augmentation, mais que les cas de maltraitance sont mieux repérés, que les professionnels s'occupant d'enfants sont plus sensibles à cette problématique et qu'il y a donc davantage de signalements (7). La prévention de la maltraitance est nécessaire et possible. Des interventions ont établi leur efficacité et il a été démontré que plus l'intervention est précoce, plus elle a de chances de réussite (2). C'est la raison pour laquelle il est important de repérer les cas de maltraitance précocement afin de pouvoir intervenir, aider les familles et garantir la protection de l'enfant. Des mesures de prévention ont été mises en place au niveau international, comme au niveau fédéral, pour assurer la reconnaissance et la prise en charge de l'enfant victime de maltraitance. Au niveau international, la Convention internationale des droits de l'enfant a été adoptée par l'Assemblée Générale en 1989 (8). Elle reconnaît l'enfant comme personne indépendante ayant des droits propres. Cette convention est divisée en quatre parties comportant : les principes directeurs (la non-discrimination, viser les meilleurs intérêts pour l'enfant, le droit de vivre, de survivre et de se développer, le droit de participation), les droits de survie et de développement (le droit à avoir les ressources, les compétences et les contributions nécessaires pour pouvoir survivre et pouvoir profiter d'un développement complet), les droits de protection (de toutes les formes de maltraitance envers les enfants, négligences, exploitation et cruauté), les droits de participation (la liberté d'expression de leurs opinions, de parler de sujets qui concernent leur vie sociale, économique, religieuse, culturelle ou politique et d'être écouté, la liberté d'information et la liberté d'association). Les stratégies de prévention de la maltraitance infantile visent à réduire les causes sous- jacentes et les facteurs de risque, tout en renforçant les facteurs de protection, de façon à prévenir de nouveaux cas (9). Elles comprennent : les stratégies sociétales et communautaires (mise en place de réformes juridiques et des droits de la personne humaine, instauration des politiques sociales et économiques favorables, correction des normes sociales et culturelles, réduction des inégalités économiques, réduction du facteur de risque environnemental, formation des professionnels), les stratégies relationnelles (formation parentale et des adultes s'occupant d'enfants), les stratégies individuelles (apprendre aux enfants à reconnaître et à éviter les situations de violence potentielle). En plus des mesures structurelles mises en place par les états (scolarisation obligatoire, dispositif légal, service de protection des enfants et des jeunes, services de santé spécialisés, etc.), des associations de lutte contre la maltraitance infantile existent et jouent également un rôle important dans la prévention. Par exemple, la Fondation Suisse pour la Protection de l'Enfant s'emploie à analyser les causes de la violence envers les MF / Travail de master en médecine / 2011-2012 4 enfants et à les combattre, à protéger les enfants contre la violence physique, psychologique, sexuelle et structurelle ainsi que contre la négligence par le biais d'un travail de prévention ciblé à l'échelle nationale. Elle vise également à apprendre aux enfants comment se protéger eux-mêmes et demander de l'aide, à sensibiliser les adultes qui les entourent au fait que les enfants ont une personnalité propre et qu'ils ont le droit d'être protégés et encouragés et à demander au niveau politique que l'on mette en place des structures adaptées aux enfants (10).
Resumo:
La croissance de la population, de l'économie et des transports individuels motorisés, particulièrement depuis la seconde moitié du 20ème siècle, ont notamment comme corollaire le développement urbanistique hors des frontières de la ville-centre et la formation des agglomérations. Ces zones urbaines sont stratégiques puisqu'elles accueillent une part toujours plus importante de la population et représentent le moteur de l'économie nationale. Toutefois, le développement des agglomérations et de la mobilité individuelle motorisée ne va pas sans poser de nombreux problèmes, dont la résolution nécessite de les aborder à l'échelle de l'agglomération, en coordonnant les transports et l'urbanisation. Notre système politique fédéral se définit notamment par une répartition des compétences dans une multitude de domaines entre les trois niveaux institutionnels de la Confédération, des cantons et des communes. Cette réalité est particulièrement vraie en matière d'aménagement du territoire. Il est à noter que les plus petites unités institutionnelles (les communes) conservent encore aujourd'hui des prérogatives importantes dans ce domaine. Au début des années 2000, la Confédération a développé une politique publique en faveur de ces zones stratégiques. Au moyen du fonds d'infrastructure, la politique fédérale des agglomérations dans les domaines des transports et de l'urbanisation est une politique publique incitative. Le dépôt, par les agglomérations, d'un projet respectant un cahier des charges précis et proposant des mesures de coordination entre les transports et l'urbanisation, permet d'obtenir un cofinancement fédéral du transport d'agglomération. Parmi les projets d'agglomération de première génération présentés à la Confédération, certains ont obtenu le cofinancement, d'autres pas. Le dimensionnement trop généreux des surfaces à bâtir fut notamment un facteur d'échec du projet d'agglomération de Fribourg, alors que la capacité à développer l'urbanisation à l'intérieur de l'agglomération fut un facteur de succès du projet Lausanne-Morges. L'analyse des projets d'agglomération Riviera et Monthey-Aigle, qui sont des projets de deuxième génération, confrontée à des entretiens avec des urbanistes et des responsables politiques, permet d'identifier leurs faiblesses et leurs atouts. Le projet d'agglomération Riviera présente une complémentarité des territoires et un grand potentiel de développement, mais aussi un manque de cohésion des partenaires du projet. Quant au projet Monthey-Aigle, il existe une réelle volonté politique de trouver des solutions aux conflits, mais les possibilités de développer les transports publics sont faibles. Dans le cadre de l'examen fédéral de ces deux projets d'agglomération, les éléments précités pourraient être des facteurs d'échec ou de succès. La politique publique fédérale invite les agglomérations à penser le développement de leurs transports et de leur urbanisation à un niveau global. La prise de hauteur et la coordination politique que cela suppose sont à même d'améliorer le lieu de vie des trois-quarts de la population suisse et de préserver le moteur de l'économie nationale. The growth of population, economy and personal motorised transportation, most particularly since the second half of the 20th century, has, as a consequence, induced an expansion of urban areas outside the borders of cities and encouraged the formation of urban agglomerations. These urban zones are of strategic importance as they attract an increasingly large population and represent a real driver of the national economy. However, the development of these agglomerations and the motorised mobility of their inhabitants cause numerous problems which require solutions to be adopted at the level of the agglomeration involving the interconnection of transport and urbanisation. Our federal political system is characterised by a distribution of responsibilities in many domains among the three institutional levels, namely the Confederation, the cantons and the communes. This is particularly the case of territorial developments. It should be noted that the smallest institutional units, the communes, still hold today important responsibilities in this area. At the beginning of the years 2000, the Confederation has developed a public policy in favour of these strategic zones. Through the establishment of an infrastructure fund, the federal policy in favour of urban agglomerations in the areas of transport and urbanisation aims at providing incentives to agglomerations. The submission by the agglomeration of a project containing a clear description of tasks and measures to integrate transport and urbanisation can result in a cofinancing participation by the Confederation in this project. Among the projects of first generation which had been submitted to the Confederation, some have received the cofinancing, others have not. The too generous dimension of the building areas in the project submitted by the agglomeration of Fribourg was a factor of its failure, while the capacity to develop urbanisation within the agglomeration was a factor of success for the Lausanne-Morges project. The analysis of the projects of the agglomerations Riviera and Monthey-Aigle which are projects of the second generation, as well as the interviews of urbanists and concerned officials have allowed us to identify their strengths and weaknesses. The Riviera project provides a complementary approach and a high potential of territorial developments, but at the same time denotes a lack of cohesion among partners of the project. With respect to the project Monthey-Aigle, there is a real political willingness to resolve conflicts, but the potential for the development of public transports is small. In the consideration by the Confederation of these two projects, the factors mentioned above may bring success or failure. The federal public policy incites the agglomerations to conceive the development of their transportation and urbanisation plans at a global level. The elevation of interests and the political coordination that this requires can improve the place of living of ¾ of the Swiss population and preserve the engine of growth of the national economy.
Resumo:
Le partage et la réutilisation d'objets d'apprentissage est encore une utopie. La mise en commun de documents pédagogiques et leur adaptation à différents contextes ont fait l'objet de très nombreux travaux. L'un des aspects qui fait problème concerne leur description qui se doit d'être aussi précise que possible afin d'en faciliter la gestion et plus spécifiquement un accès ciblé. Cette description s'effectue généralement par l'instanciation d'un ensemble de descripteurs standardisés ou métadonnées (LOM, ARIADNE, DC, etc). Force est de constater que malgré l'existence de ces standards, dont certains sont relativement peu contraignants, peu de pédagogues ou d'auteurs se prêtent à cet exercice qui reste lourd et peu gratifiant. Nous sommes parti de l'idée que si l'indexation pouvait être réalisée automatiquement avec un bon degré d'exactitude, une partie de la solution serait trouvée. Pour ce, nous nous sommes tout d'abord penché sur l'analyse des facteurs bloquants de la génération manuelle effectuée par les ingénieurs pédagogiques de l'Université de Lausanne. La complexité de ces facteurs (humains et techniques) nous a conforté dans l'idée que la génération automatique de métadonnées était bien de nature à contourner les difficultés identifiées. Nous avons donc développé une application de génération automatique de métadonnées laquelle se focalise sur le contenu comme source unique d'extraction. Une analyse en profondeur des résultats obtenus, nous a permis de constater que : - Pour les documents non structurés : notre application présente des résultats satisfaisants en se basant sur les indicateurs de mesure de qualité des métadonnées (complétude, précision, consistance logique et cohérence). - Pour des documents structurés : la génération automatique s'est révélée peu satisfaisante dans la mesure où elle ne permet pas d'exploiter les éléments sémantiques (structure, annotations) qu'ils contiennent. Et dans ce cadre nous avons pensé qu'il était possible de faire mieux. C'est ainsi que nous avons poursuivi nos travaux afin de proposer une deuxième application tirant profit du potentiel des documents structurés et des langages de transformation (XSLT) qui s'y rapportent pour améliorer la recherche dans ces documents. Cette dernière exploite la totalité des éléments sémantiques (structure, annotations) et constitue une autre alternative à la recherche basée sur les métadonnées. De plus, la recherche basée sur les annotations et la structure offre comme avantage supplémentaire de permettre de retrouver, non seulement les documents eux-mêmes, mais aussi des parties de documents. Cette caractéristique apporte une amélioration considérable par rapport à la recherche par métadonnées qui ne donne accès qu'à des documents entiers. En conclusion nous montrerons, à travers des exemples appropriés, que selon le type de document : il est possible de procéder automatiquement à leur indexation pour faciliter la recherche de documents dès lors qu'il s'agit de documents non structurés ou d'exploiter directement leur contenu sémantique dès lors qu'il s'agit de documents structurés.