1000 resultados para Méthodes de recherche qualitative


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La survie actuelle après correction chirurgicale de la Tétralogie de Fallot (TDF) est de 97% à 12 ans. Les principaux risques à long terme sont une régurgitation pulmonaire ou une sténose récidivante de la sortie droite du coeur, une tachycardie ventriculaire pouvant entrainer une mort subite. Le but de cette étude rétrospective est de comparer la correction chirurgicale de la TDF avec patch pulmonaire versus un conduit valvé xénogreffe. Le collectif se compose de 127 patients entre 2 mois et 16 ans, opérés pour une TDF entre l'année 2000 et 2010. La correction chirurgicale était soit avec un patch, soit avec un conduit valvé à la sortie droite. Cette étude montre d'une part qu'il n'y a pas de différence de survie à un mois entre les deux méthodes opératoires. De plus, elle montre que, lors de la pose d'un patch, il y a plus de sept fois plus d'insuffisances valvulaires modérées à sévères après un mois que lors de la pose d'un conduit valvé. D'autre part, elle démontre que la différence de gradient résiduel à la sortie droite entre la correction avec patch ou conduit n'est pas significative et que la valeur du gradient résiduel à la sortie droite en postopératoire n'est pas représentative du gradient résiduel à un mois. De plus, cette étude prouve que les coronaires aberrantes ainsi qu'un shunt palliatif de Blalock-Taussig sont des facteurs de risque indépendants pour une correction avec un conduit valvé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectifs: Décrire la prévalence des thromboses veineuses mésentériques (TVM) chez des patients atteints de maladie inflammatoire de l'intestin (MICI). Matériels et méthodes: 161 patients (90 femmes, âge moyen 46ans) porteurs de MICI suivis dans la cohorte prospective suisse (SWISS IBD COHORT) et ayant eu une tomodensitomètrie abdominale ont été inclus (Crohn n=119 (74%), RCUH n=42 (26%)). Une analyse en consensus des branches mésentériques supérieures et inférieures a été faite à la recherche des signes d'obstruction aiguë (caillot intra-luminal) ou chroniques (rétrécissement/occlusion et collatérales veineuses). Une corrélation entre TVM et signes radiologiques classiques a été réalisée. Résultats: La TVM était présente chez 43 patients (26%) sous forme aiguë (n=2), chronique (n=36) ou les 2 (n=5). La prévalence est identique entre maladie de Crohn et RCUH (28 vs 27%) bien que les segments touchés soient différents (iléon vs rectosigmoïde). Chez 11/43 patients, la TVM est acquise car absente sur des examens antérieurs. L'existence d'une TVM était plus fréquemment associée à la présence d'une ascite (60% vs 24%) et d'une atteinte pariétale digestive (96% vs 73%). Conclusion: Les TVM son beaucoup plus fréquentes que décrites dans la litérature et sont aussi fréquentes dans la maladie de Crohn que dans la RCUH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: Primary care physicians are often requested to assess their patients' fitness to drive. Little is however known on their needs to help them in this task. Aims: The aim of this study is to develop theories on needs, expectations, and barriers for clinical instruments helping physicians assess fitness to drive in primary care. Methods: This qualitative study used semi-structured interviews to investigate needs and expectations for instruments used to assess fitness to drive. From August 2011 to April 2013, we recorded opinions from five experts in traffic medicine, five primary care physicians, and five senior drivers. All interviews were integrally transcribed. Two independent researchers extracted, coded, and stratified categories relying on multi-grounded theory. All participants validated the final scheme. Results: Our theory suggests that for an instruments assessing fitness to drive to be implemented in primary care, it need to contribute to the decisional process. This requires at least five conditions: 1) it needs to reduce the range of uncertainty, 2) it needs to be adapted to local resources and possibilities, 3) it needs to be accepted by patients, 4) choices of tasks need to adaptable to clinical conditions, 5) and interpretation of results need to remain dependant of each patient's context. Discussion and conclusions: Most existing instruments assessing fitness to drive are not designed for primary care settings. Future instruments should also aim to support patient-centred dialogue, help anticipate driving cessation, and offer patients the opportunity to freely take their own decision on driving cessation as often as possible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Advancements in high-throughput technologies to measure increasingly complex biological phenomena at the genomic level are rapidly changing the face of biological research from the single-gene single-protein experimental approach to studying the behavior of a gene in the context of the entire genome (and proteome). This shift in research methodologies has resulted in a new field of network biology that deals with modeling cellular behavior in terms of network structures such as signaling pathways and gene regulatory networks. In these networks, different biological entities such as genes, proteins, and metabolites interact with each other, giving rise to a dynamical system. Even though there exists a mature field of dynamical systems theory to model such network structures, some technical challenges are unique to biology such as the inability to measure precise kinetic information on gene-gene or gene-protein interactions and the need to model increasingly large networks comprising thousands of nodes. These challenges have renewed interest in developing new computational techniques for modeling complex biological systems. This chapter presents a modeling framework based on Boolean algebra and finite-state machines that are reminiscent of the approach used for digital circuit synthesis and simulation in the field of very-large-scale integration (VLSI). The proposed formalism enables a common mathematical framework to develop computational techniques for modeling different aspects of the regulatory networks such as steady-state behavior, stochasticity, and gene perturbation experiments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

STUDY DESIGN.: Retrospective radiologic study on a prospective patient cohort. OBJECTIVE.: To devise a qualitative grading of lumbar spinal stenosis (LSS), study its reliability and clinical relevance. SUMMARY OF BACKGROUND DATA.: Radiologic stenosis is assessed commonly by measuring dural sac cross-sectional area (DSCA). Great variation is observed though in surfaces recorded between symptomatic and asymptomatic individuals. METHODS.: We describe a 7-grade classification based on the morphology of the dural sac as observed on T2 axial magnetic resonance images based on the rootlet/cerebrospinal fluid ratio. Grades A and B show cerebrospinal fluid presence while grades C and D show none at all. The grading was applied to magnetic resonance images of 95 subjects divided in 3 groups as follows: 37 symptomatic LSS surgically treated patients; 31 symptomatic LSS conservatively treated patients (average follow-up, 2.5 and 3.1 years); and 27 low back pain (LBP) sufferers. DSCA was also digitally measured. We studied intra- and interobserver reliability, distribution of grades, relation between morphologic grading and DSCA, as well relation between grades, DSCA, and Oswestry Disability Index. RESULTS.: Average intra- and interobserver agreement was substantial and moderate, respectively (k = 0.65 and 0.44), whereas they were substantial for physicians working in the study originating unit. Surgical patients had the smallest DSCA. A larger proportion of C and D grades was observed in the surgical group. Surface measurementsresulted in overdiagnosis of stenosis in 35 patients and under diagnosis in 12. No relation could be found between stenosis grade or DSCA and baseline Oswestry Disability Index or surgical result. C and D grade patients were more likely to fail conservative treatment, whereas grades A and B were less likely to warrant surgery. CONCLUSION.: The grading defines stenosis in different subjects than surface measurements alone. Since it mainly considers impingement of neural tissue it might be a more appropriate clinical and research tool as well as carrying a prognostic value.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Collection : Journal officiel de la République française ; brochure 1049

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ Objectifs : Evaluer l'intérêt des examens paracliniques prescrits dans les morts du foetus in utéro pour aboutir à l'établissement d'un nouvel algorithme de prise en charge du bilan des morts in utero. Matériel et méthodes : Analyse rétrospective d'une série de 106 morts in utero recensées entre septembre 1989 et décembre 1998 dans le département de gynécologie - obstétrique du CHUV (maternité de type 3) à Lausanne. Nous avons défini la mort in utero à partir de la date limite de viabilité foetale. Seules les grossesses de 24 semaines ou plus ont été inclues dans cette série. Nous avons exclu les morts in utero survenues en cours d'interruption thérapeutique de grossesse ainsi que les cas présentant un dossier incomplet. La classification étiologique utilisée est celle décrite par Fretts. L'analyse a porté sur les différents examens demandés, ainsi que sur l'évaluation de leur pertinence dans l'établissement du diagnostic étiologique de chaque cas. La recherche de facteurs de risque significatifs a également été prise en considération. Nous avons comparé notre prise en charge aux données de la littérature, afin de proposer un nouvel algorithme. Résultats : L'étiologie de la mort foetale a pu être définie dans 90% des cas. Les causes principales en étaient les retards de croissance in utero (19,8 %), les anomalies congénitales et chromosomiques foetales (18,9%), les infections (15,1%), le décollement placentaire (7,5%), la prééclampsie (5,6%), le diabète maternel (3,8%). Le 18,9% restant se répartissant par petits nombres entre diverses autres causes. Dans 10,4% des cas nous n'avons pas trouvé d'explication à la mort in utero. Les examens les plus profitables dans le bilan de la mort in utero était l'autopsie foetale, qui était anormale dans 92,7% des cas examinés, l'anatomopathologie placentaire, anormale dans 93% des cas et le babygramme (radiographie du squelette foetal), pathologique dans 53% des cas. La sérologie maternelle infectieuse était informative dans 6,6% des cas. Conclusion : Nous présentons un protocole de prise en charge du bilan de la mort in utero différencié en fonction des circonstances entourant l'événement, afin de limiter les examens superflus.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME - FRANÇAISRésuméDans ce travail de thèse, l'importance de la pharmacogénétique des traitements antiviraux a été évaluée en déterminant, au moyen de trois différentes approches, l'impact de variations génétiques sur la pharmacocinétique de deux traitements antirétroviraux (à savoir l'efavirenz et le lopinavir) ainsi que sur la capacité de pouvoir éliminer le virus de l'hépatite C de façon naturelle ou suite à un traitement médicamenteux.L'influence des variations génétiques sur les taux plasmatiques de l'efavirenz et de ses métabolites primaires a été évaluée par l'analyse d'un seul gène candidat : le cytochrome P450 (CYP) 2A6, impliqué dans une voie métabolique accessoire de l'efavirenz. Cette étude a permis de démontrer que le génotype du CYP2A6 devient cliniquement déterminant en l'absence de fonction du CYP2B6, impliqué dans la voie métabolique principale, et que la perte simultanée des voies métaboliques principales et accessoires entraine une augmen¬tation du risque d'interruption du traitement, soulignant la valeur prédictive du génotypage.L'influence de la génétique sur la clairance du lopinavir a été évaluée par l'analyse à grande échelle de gènes candidats, à savoir les gènes potentiellement impliqués dans l'absorption, le métabolisme, la distribution et l'élimination d'un médicament. Cette étude a permis l'identification de 4 polymorphismes, dans des transporteurs et des enzymes métaboliques, associés à la clairance du lopinavir et expliquant 5% de la variabilité inter¬individuelle de ce phénotype.L'influence de la génétique sur la capacité d'éliminer le virus de l'hépatite C, de façon naturelle ou à la suite d'un traitement, a été évaluée par l'analyse du génome entier. Cette étude a permis l'identification d'un polymorphisme situé à proximité de l'interféron-X3. Quatre variations génétiques potentiellement causales ont ensuite pu être identifiées par reséquencage. Finalement, la contribution nette de ce gène sur l'élimination du virus a pu être évaluée dans une cohorte infectée par une seule et même source, permettant ainsi de contrôler l'effet de la diversité virale, du genre et de la présence de co-infections.Cette thèse a permis de mettre en évidence les diverses méthodes disponibles pour la recherche en pharmacogénétique, ainsi que l'importance du reséquencage pour l'identification de variations génétiques causales.SUMMARY - ENGLISHSummaryIn this thesis work the relevance of pharmacogenetics of antiviral treatment has been assessed by investigating, through three different approaches, the impact of host genetic variation on antiretroviral drug disposition (namely efavirenz and lopinavir) and on natural or treatment-induced clearance of hepatitis C virus.The influence of host genetic variation on efavirenz and its primary metabolite plasma levels was assessed by single candidate gene approach, through comprehensive analysis of cytochrome P450 (CYP) 2A6 - involved in efavirenz accessory metabolic pathway. The study could demonstrate that CYP2A6 genotype became increasingly relevant in the setting of limited CYP2B6 function - involved in efavirenz main metabolic pathway - and that individuals with both main and accessory metabolic pathways impaired were at higher risk for treatment discontinuation, overall emphasizing the predictive power of genotyping.The influence of host genetic variation on lopinavir clearance was assessed by large scale candidate gene approach, through analysis of genes involved in the absorption, distribution, metabolism and elimination. The study identified four genetic variants in drug transporters and metabolizing enzymes that explained 5% of the interindividual variability in lopinavir clearance.The influence of host genetic variation on hepatitis C virus (HCV) natural or treatment- induced clearance was assessed through genome-wide association study approach. This study identified an intergenic polymorphism, part of a linkage disequilibrium block encompassing the interferon-3 gene, as highly associated with treatment-induced and spontaneous HCV clearance. Resequencing and recombinant mapping lead to the identification of four potentially causal genetic variants. Finally, we could assess the net contribution of genetic variants in interferon-3 to clearance by controlling for viral diversity, gender and co-infection status in a single source infected cohort.This thesis highlights the various genetic tools available to pharmacogenetic discovery (candidate gene, pathway or and genome-wide approaches), and the importance of resequencing for mapping of causal variants.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Afin que la base de données de l'assurance invalidite (AI) soit utilisable à des fins de recherche, il serait nécessaire de restructurer le mode de récolte de données; unifier les définitions de l'impotence et de l'invalidité utilisées à l'AI avec celles de l'Organisation mondiale de la sante (OMS); employer les codes de la classification internationale des maladies (CIM); organiser le système de telle manière qu'il soit possible d'obtenir des listes d'assurés par année de naissance, par année d'entrée à l'AI, par diagnostic et par année d'âge.