963 resultados para Outil prédictif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus de 30 ans, Maïté se bat sur le terrain avec les femmes, spécialement avec des femmes victimes de violences conjugales. Elle est cofondatrice de l'APIAF (Association pour la Promotion d'Initiatives Autonomes des Femmes), centre d'accueil pour des femmes en difficulté. « Lieu d'écoute, d'information, d'orientation et d'insertion pour les femmes en difficulté, avec un accueil spécifique pour les femmes victimes de violences conjugales », l'APIAF fut créée à Toulouse en 1981 et adhère à la Fédération Nationale Solidarité Femmes (FNSF). Chaque année, l'APIAF accueille environ 1000 femmes victimes de violences conjugales et 1200 enfants. Maïté participe aussi au comité d'éthique et au service de formation de la FNSF. Quartiers Nord de Toulouse. Durant cette période, en tant que militante féministe, elle s'est intéressée à la pratique culturelle de la vidéo et à son utilisation comme outil d'expression engagée. Plusieurs de ses documentaires et reportages ont été tournés avec Carol Prestat. Maïté utilise cet outil dans ses interventions, tant auprès des femmes - parmi les documentaires qu'elle a réalisés : "Cinq femmes et des mariages", "Des dames comme tout le monde" (avec des femmes chômeuses) et "Prends garde à toi!" (sur l'intervention professionnelle auprès de femmes victimes de violences conjugales) - que des jeunes - une de ces vidéos, « Salah, Malik, Beurs », a donné naissance au groupe de musique Zebda. Ce travail avec les jeunes l'a amenée à mettre sur pied l'Association Vitécri, visant à réaliser des films et organiser des activités culturelles avec des jeunes des quartiers populaires issu·e·s de l'immigration postcoloniale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Objectif: Le glioblastome multiforme (GBM) est la tumeur cérébrale maligne la plus agressive qui conduit au décès de la majorité des patients moins d'une année après le diagnostic. La plupart des agents chimiothérapeutiques actuellement disponibles ne traversent pas la barrière hémato¬encéphalique et ne peuvent par conséquent pas être utilisés pour ce type de tumeur. Le Temozolomide (TMZ) est un nouvel agent alkylant récemment développé pour le traitement des gliomes malins. A ce jour, très peu d'informations sont disponibles sur la pénétration intra-cérébrale de cet agent. Au cours d'une étude pilote de phase II menée auprès de 64 patients atteints de GBM, l'administration précoce de TMZ combinée à une radiothérapie standard (RT) afin d'intervenir au plus tôt dans l'évolution de la maladie, a permis de prolonger la survie de ces patients, résultat qui pu être confirmé par la suite lors de l'étude randomisée de phase III. L'objectif de cette étude a été de déterminer les paramètres pharmacocinétique du TMZ dans le plasma et le liquide céphalo-rachidien (LCR), d'évaluer l'influence de certains facteurs individuels (âge, sexe, surface corporelle, fonction rénale/hépatique, co-médications, RT concomitante) sur ces différents paramètres, et enfin d'explorer la relation existant entre l'exposition au TMZ et certains marqueurs cliniques d'efficacité et de toxicité. Matériel et Méthode: Les concentrations de TMZ ont été mesurées par chromatographie liquide à haute performance (HPLC) dans le plasma et le LCR de 35 patients atteints de GBM nouvellement diagnostiqués (étude pilote) ou de gliomes malins en récidive (étude récidive). L'analyse pharmacocinétique de population a été réalisée à l'aide du programme NONMEM. L'exposition systémique et cérébrale, définie par les AUC (Area Under the time-concentration Curve) dans le plasma et le LCR, a été estimée pour chaque patient et corrélée à la toxicité, la survie ainsi que la survie sans progression tumorale. Résultats: Un modèle à 1 compartiment avec une cinétique d'absorption et de transfert Kplasma -> LCR de ordre a été retenu afin de décrire le profil pharmacocinétique du TMZ. Les valeurs moyennes de population ont été de 10 L/h pour la clairance, de 30.3 L pour le volume de distribution, de 2.1 h pour la 1/2 vie d'élimination, de 5.78 hE-1 pour la constante d'absorption, de 7.2 10E4 hE-1 pour Kplasma->LCR et de 0.76 hE-1 pour KLCR plasma. La surface corporelle a montré une influence significative sur la clairance et le volume de distribution, alors que le sexe influence la clairance uniquement. L'AUC mesurée dans le LCR représente ~20% de celle du plasma et une augmentation de 15% de Kplasma->LCR a été observée lors du traitement concomitant de radiochimiothérapie. Conclusions: Cette étude est la première analyse pharmacocinétique effectuée chez l'homme permettant de quantifier la pénétration intra-cérébrale du TMZ. Le rapport AUC LCR/AUC Plasma a été de 20%. Le degré d'exposition systémique et cérébral au TMZ ne semble pas être un meilleur facteur prédictif de la survie ou de la tolérance au produit que ne l'est la dose cumulée seule. ABSTRACT Purpose: Scarce information is available on the brain penetration of temozolomide (TMZ), although this novel methylating agent is mainly used for the treatment of ma¬lignant brain tumors. The purpose was to assess TNIZ phar¬macokinetics in plasma and cerebrospinal fluid (CSF) along with its inter-individual variability, to characterize covari¬ates and to explore relationships between systemic or cere¬bral drug exposure and clinical outcomes. Experimental Design: TMZ levels were measured by high-performance liquid chromatography in plasma and CSF samples from 35 patients with newly diagnosed or recurrent malignant gliomas. The population pharmacoki¬netic analysis was performed with nonlinear mixed-effect modeling software. Drug exposure, defined by the area un¬der the concentration-time curve (AUC) in plasma and CSF, was estimated for each patient and correlated with toxicity, survival, and progression-free survival. Results: A three-compartment model with first-order absorption and transfer rates between plasma and CSF described the data appropriately. Oral clearance was 10 liter/h; volume of distribution (VD), 30.3 liters; absorption constant rate, 5.8 hE-1; elimination half-time, 2.1 h; transfer rate from plasma to CSF (Kplasma->CSF), 7.2 x 10E-4hE-1 and the backwards rate, 0.76hE-1. Body surface area signifi¬cantly influenced both clearance and VD, and clearance was sex dependent. The AU CSF corresponded to 20% of the AUCplasma. A trend toward an increased K plasma->CSF of 15% was observed in case of concomitant radiochemo-therapy. No significant correlations between AUC in plasma or CSF and toxicity, survival, or progression-free survival were apparent after deduction of dose-effect. Conclusions: This is the first human pharmacokinetic study on TMZ to quantify CSF penetration. The AUC CSF/ AUC plasma ratio was 20%. Systemic or cerebral exposures are not better predictors than the cumulative dose alone for both efficacy and safety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : L'application d'une ventilation non-invasive (VNI) à pression positive chez des patients avec une insuffisance respiratoire aiguë hypoxémique non liée à une broncho-pneumopathie chronique obstructive (BPCO), reste controversée malgré les résultats encourageants apparus dans de récentes études. Ce travail de thèse est composé d'une introduction qui comprend un historique de la VNI et une revue de ces applications principales dans l'insuffisance respiratoire aiguë avec, en particulier, une analyse des études cliniques principales concernant son utilisation dans l'exacerbation de la BPCO, dans l'asthme aigu sévère, dans les syndromes restrictifs et dans l'insuffisance respiratoire aiguë hypoxémique. La première partie aborde également les aspects pratiques de l'utilisation de la VNI, avec une description de l'équipement et des techniques utilisées. Ce travail de thèse a ensuite pour but d'analyser dans une étude personnelle l'application d'une VNI à pression positive chez des patients avec une insuffisance respiratoire aiguë hypoxémique non liée à une BPCO. Il s'agit d'une étude prospective et observationnelle, dans laquelle nous avons voulu analyser l'efficacité de la VNI chez un groupe de patients sélectionnés et coopérants, stables du point de vue hémodynamique, présentant un syndrome de détresse respiratoire aiguë (SDRA) primaire (atteinte pulmonaire directe). Les échanges gazeux, le taux d'intubation, la mortalité et la durée de séjour dans l'unité de soins intensifs ont été enregistrés. Dans notre travail, la VNI a été appliquée de manière prospective à 12 patients, stables du point de vue hémodynamique, présentant les critères diagnostiques pour un SDRA primaire (SDRAP) et une indication pour une ventilation mécanique classique. Leur évolution a été comparée avec celle d'un groupe contrôle de 12 patients avec SDRAP. et précédemment traités dans la même unité de soins intensifs, ayant des caractéristiques similaires à l'admission : âge, score SAPS II, rapport Pa02/Fi02 et valeurs de pH . Un échec de la VNI fut observé chez 4 patients (33%), tous bactériémiques et nécessitant une intubation endotrachéale. Un facteur prédictif négatif. Les patients traités avec succès ont présenté un temps cumulatif de ventilation (p=0.001) et une durée de séjour aux soins intensifs (p=0.004) inférieure à ceux du groupe contrôle. Pendant la première période d'observation de la ventilation, l'oxygénation après 60 minutes s'est améliorée de manière plus importante dans le groupe VNI par rapport au groupe contrôle (PaO2/FiO2 : 146 +/- 52 mmHg vs. 109 +/- 34 mmHg ; p=0.05). Le taux de mortalité globale aux soins intensifs ne fut pas différent entre le groupe VNI et le groupe de patients intubés. Le taux de complications graves fut plus élevé chez les patients du groupe contrôle. Nos résultats suggèrent que chez des patients stables et coopérants, avec une pneumonie étendue, sans bactériémie à l'admission et remplissant les critères diagnostiques d'un SDRAp, la VNI représente une alternative valable à l'intubation endotrachéale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RésuméCette thèse en psychologie qualitative et critique de la santé propose un éclairage, sur la subjectivité transgenre, différent des modèles dominants en clinique. Les nosologies de type DSM et de la psychiatrie dominante focalisent sur la seule question de la transition transsexuelle, elles utilisent la sexualité comme outil dans les diagnostics différentiels permettant d'effectuer le gatekeeping de la transition médicalisée du genre. Elles sont décrites comme un dispositif de médicalisation du genre, induisant des pratiques maltraitantes. Une méthodologie qualitative inspirée de la théorie ancrée ainsi que de l'analyse réflexive est utilisée. Un échantillon de 15 personnes représentant la diversité des personnes transgenres FtM a été recruté. Les données provenant d'entrevues non directives sont analysées dans une perspective verticale et horizontale. Les résultats soulignent l'inadéquation des typologies cliniques, de la place qui est donnée à la sexualité dans les procédures diagnostiques et de l'opposition qu'elles construisent entre identité (de genre) et sexualité. Ils plaident pour une vision deleuzienne de type nomade, incarnée et sexuée de la subjectivité transgenre.AbstractThe broad of this study in critical health psychology is to build an understanding of transgender subjectivity which contrast with dominant clinical models. DSM nosology types and dominant psychiatry have traditionally focused only on transsexual transitioning. They use sexuality as a diagnostic tool to address the gatekeeping of the medical transition. These practices have been described as medicalization of gender, inducing mistreatment. A qualitative methodology mixing grounded theory and reflexivity has been used. A sample of 15 persons has been recruited to represent transgender FtM diversity. Data were collected through in-depth interview and analysed case by case and by themes. Results show that dominant clinical typologies of TG are inappropriate, as well as the way sexuality is used in this practices and the opposition between (gender) identity and sexuality. We propose a deleuzian concept of becoming and multiplicity to understand transgender subjectivity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette contribution explore le rôle institutionnel, scientifique et clinique de l'électroencéphalogramme (EEG) dans l'étude et la prise en charge de l'épilepsie, entre neurologie et psychiatrie, des années 1930 aux années 1960. En Suisse, si une épileptologie se développe à partir de la fin des années 1940 par le biais de l'EEG, on doit l'introduction de ce dernier à la psychiatrie, à partir des années 1930. En tenant compte de l'apport de la psychiatrie suisse et de la lente reconnaissance de la neurologie en tant que discipline institutionnalisée, je propose quelques éléments historiques d'une clinique psychiatrique de l'épilepsie et de sa neurologisation. Au coeur des réflexions et des pratiques de certains psychiatres suisses spécialistes de l'EEG, s'inscrit un souci constant de prise en charge globale des patients et d'une intégration de l'EEG en tant qu'outil complémentaire de la clinique. C'est à partir du début des années 1960 que l'EEG et l'épilepsie deviennent respectivement une des méthodes d'investigation clinique et une des pathologies privilégiées de la neurologie. Si quelques cas d'épilepsie dite « essentielle » sont toujours diagnostiqués et pris en charge dans les hôpitaux psychiatriques, plusieurs facteurs tels que l'innovation technique, l'autonomisation de la neurologie comme spécialité médicale reconnue, les considérations de coûts d'hospitalisation, le raccourcissement des séjours des patients et la mise en avant d'une approche ambulatoire de l'EEG en épileptologie, vont peu à peu tarir l'expertise et l'intérêt des psychiatres hospitaliers au sujet de l'EEG et de l'épilepsie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Argent et stupéfiants, stupéfiants et argent" : c'est un binôme bien implanté dans l'imaginaire commun. La production, le transport et la vente de stupéfiants constituent l'un des principaux trafics illicites au niveau international et permettent, à travers le blanchiment de l'argent qui en est issu, de financer beaucoup d'activités illégales. Dans ce cadre, le monde judiciaire montre un intérêt tout particulier à pouvoir démontrer que des sommes d'argent ont été en contact avec des produits stupéfiants et donc de les relier à leur trafic. C'est dans cette optique que l'analyse des contaminations en produits stupéfiants que l'on retrouve sur les billets de banque constitue un outil intéressant. Il s'agit de pouvoir établir que des billets en circulation présentent peu de traces de stupéfiants alors que les billets saisis dans le cadre de la répression du trafic illicite de stupéfiants en présentent en quantité plus importante. Les résultats de cette étude confirment qu'il est possible de mettre en évidence une différence significative entre la population des billets en circulation et la population des billets saisis tant pour les francs suisses que pour les euros. La méthodologie développée pour déterminer si un lot de billets est relié au trafic de produits stupéfiants est ainsi validée et constitue une contribution nouvelle dans la lutte contre le trafic des stupéfiants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail d'un(e) expert(e) en science forensique exige que ce dernier (cette dernière) prenne une série de décisions. Ces décisions sont difficiles parce qu'elles doivent être prises dans l'inévitable présence d'incertitude, dans le contexte unique des circonstances qui entourent la décision, et, parfois, parce qu'elles sont complexes suite à de nombreuse variables aléatoires et dépendantes les unes des autres. Etant donné que ces décisions peuvent aboutir à des conséquences sérieuses dans l'administration de la justice, la prise de décisions en science forensique devrait être soutenue par un cadre robuste qui fait des inférences en présence d'incertitudes et des décisions sur la base de ces inférences. L'objectif de cette thèse est de répondre à ce besoin en présentant un cadre théorique pour faire des choix rationnels dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. L'inférence et la théorie de la décision bayésienne satisfont les conditions nécessaires pour un tel cadre théorique. Pour atteindre son objectif, cette thèse consiste de trois propositions, recommandant l'utilisation (1) de la théorie de la décision, (2) des réseaux bayésiens, et (3) des réseaux bayésiens de décision pour gérer des problèmes d'inférence et de décision forensiques. Les résultats présentent un cadre uniforme et cohérent pour faire des inférences et des décisions en science forensique qui utilise les concepts théoriques ci-dessus. Ils décrivent comment organiser chaque type de problème en le décomposant dans ses différents éléments, et comment trouver le meilleur plan d'action en faisant la distinction entre des problèmes de décision en une étape et des problèmes de décision en deux étapes et en y appliquant le principe de la maximisation de l'utilité espérée. Pour illustrer l'application de ce cadre à des problèmes rencontrés par les experts dans un laboratoire de science forensique, des études de cas théoriques appliquent la théorie de la décision, les réseaux bayésiens et les réseaux bayésiens de décision à une sélection de différents types de problèmes d'inférence et de décision impliquant différentes catégories de traces. Deux études du problème des deux traces illustrent comment la construction de réseaux bayésiens permet de gérer des problèmes d'inférence complexes, et ainsi surmonter l'obstacle de la complexité qui peut être présent dans des problèmes de décision. Trois études-une sur ce qu'il faut conclure d'une recherche dans une banque de données qui fournit exactement une correspondance, une sur quel génotype il faut rechercher dans une banque de données sur la base des observations faites sur des résultats de profilage d'ADN, et une sur s'il faut soumettre une trace digitale à un processus qui compare la trace avec des empreintes de sources potentielles-expliquent l'application de la théorie de la décision et des réseaux bayésiens de décision à chacune de ces décisions. Les résultats des études des cas théoriques soutiennent les trois propositions avancées dans cette thèse. Ainsi, cette thèse présente un cadre uniforme pour organiser et trouver le plan d'action le plus rationnel dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. Le cadre proposé est un outil interactif et exploratoire qui permet de mieux comprendre un problème de décision afin que cette compréhension puisse aboutir à des choix qui sont mieux informés. - Forensic science casework involves making a sériés of choices. The difficulty in making these choices lies in the inévitable presence of uncertainty, the unique context of circumstances surrounding each décision and, in some cases, the complexity due to numerous, interrelated random variables. Given that these décisions can lead to serious conséquences in the admin-istration of justice, forensic décision making should be supported by a robust framework that makes inferences under uncertainty and décisions based on these inferences. The objective of this thesis is to respond to this need by presenting a framework for making rational choices in décision problems encountered by scientists in forensic science laboratories. Bayesian inference and décision theory meets the requirements for such a framework. To attain its objective, this thesis consists of three propositions, advocating the use of (1) décision theory, (2) Bayesian networks, and (3) influence diagrams for handling forensic inference and décision problems. The results present a uniform and coherent framework for making inferences and décisions in forensic science using the above theoretical concepts. They describe how to organize each type of problem by breaking it down into its différent elements, and how to find the most rational course of action by distinguishing between one-stage and two-stage décision problems and applying the principle of expected utility maximization. To illustrate the framework's application to the problems encountered by scientists in forensic science laboratories, theoretical case studies apply décision theory, Bayesian net-works and influence diagrams to a selection of différent types of inference and décision problems dealing with différent catégories of trace evidence. Two studies of the two-trace problem illustrate how the construction of Bayesian networks can handle complex inference problems, and thus overcome the hurdle of complexity that can be present in décision prob-lems. Three studies-one on what to conclude when a database search provides exactly one hit, one on what genotype to search for in a database based on the observations made on DNA typing results, and one on whether to submit a fingermark to the process of comparing it with prints of its potential sources-explain the application of décision theory and influ¬ence diagrams to each of these décisions. The results of the theoretical case studies support the thesis's three propositions. Hence, this thesis présents a uniform framework for organizing and finding the most rational course of action in décision problems encountered by scientists in forensic science laboratories. The proposed framework is an interactive and exploratory tool for better understanding a décision problem so that this understanding may lead to better informed choices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Un nombre croissant de cas de malaria chez les voyageurs et migrants a été rapporté. Bien que l'analyse microscopique des frottis sanguins reste traditionnellement l'outil diagnostic de référence, sa fiabilité dépend considérablement de l'expertise de l'examinateur, pouvant elle-même faire défaut sous nos latitudes. Une PCR multiplex en temps réel a donc été développée en vue d'une standardisation du diagnostic. Un ensemble d'amorces génériques ciblant une région hautement conservée du gène d'ARN ribosomial 18S du genre Plasmodium a tout d'abord été conçu, dont le polymorphisme du produit d'amplification semblait suffisant pour créer quatre sondes spécifiques à l'espèce P. falciparum, P. malariae, P. vivax et P. ovale. Ces sondes utilisées en PCR en temps réel se sont révélées capables de détecter une seule copie de plasmide de P. falciparum, P. malariae, P. vivax et P. ovale spécifiquement. La même sensibilité a été obtenue avec une sonde de screening pouvant détecter les quatre espèces. Quatre-vingt-dix-sept échantillons de sang ont ensuite été testés, dont on a comparé la microscopie et la PCR en temps réel pour 66 (60 patients) d'entre eux. Ces deux méthodes ont montré une concordance globale de 86% pour la détection de plasmodia. Les résultats discordants ont été réévalués grâce à des données cliniques, une deuxième expertise microscopique et moléculaire (laboratoire de Genève et de l'Institut Suisse Tropical de Bâle), ainsi qu'à l'aide du séquençage. Cette nouvelle analyse s'est prononcé en faveur de la méthode moléculaire pour tous les neuf résultats discordants. Sur les 31 résultats positifs par les deux méthodes, la même réévaluation a pu donner raison 8 fois sur 9 à la PCR en temps réel sur le plan de l'identification de l'espèce plasmodiale. Les 31 autres échantillons ont été analysés pour le suivi de sept patients sous traitement antimalarique. Il a été observé une baisse rapide du nombre de parasites mesurée par la PCR en temps réel chez six des sept patients, baisse correspondant à la parasitémie déterminée microscopiquement. Ceci suggère ainsi le rôle potentiel de la PCR en temps réel dans le suivi thérapeutique des patients traités par antipaludéens. Abstract : There have been reports of increasing numbers of cases of malaria among migrants and travelers. Although microscopic examination of blood smears remains the "gold standard" in diagnosis, this method suffers from insufficient sensitivity and requires considerable expertise. To improve diagnosis, a multiplex real-time PCR was developed. One set of generic primers targeting a highly conserved region of the 18S rRNA gene of the genus Plasmodium was designed; the primer set was polymorphic enough internally to design four species-specific probes for P. falciparum, P. vivax, P. malarie, and P. ovale. Real-time PCR with species-specific probes detected one plasmid copy of P. falciparum, P. vivax, P. malariae, and P. ovale specifically. The same sensitivity was achieved for all species with real-time PCR with the 18S screening probe. Ninety-seven blood samples were investigated. For 66 of them (60 patients), microscopy and real-time PCR results were compared and had a crude agreement of 86% for the detection of plasmodia. Discordant results were reevaluated with clinical, molecular, and sequencing data to resolve them. All nine discordances between 18S screening PCR and microscopy were resolved in favor of the molecular method, as were eight of nine discordances at the species level for the species-specific PCR among the 31 samples positive by both methods. The other 31 blood samples were tested to monitor the antimalaria treatment in seven patients. The number of parasites measured by real-time PCR fell rapidly for six out of seven patients in parallel to parasitemia determined microscopically. This suggests a role of quantitative PCR for the monitoring of patients receiving antimalaria therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Switzerland, the annual cost of damage by natural elements has been increasing for several years despite the introduction of protective measures. Mainly induced by material destruction building insurance companies have to pay the majority of this cost. In many European countries, governments and insurance companies consider prevention strategies to reduce vulnerability. In Switzerland, since 2004, the cost of damage due to natural hazards has surpassed the cost of damage due to fire; a traditional activity of the Cantonal Insurance company (EGA). Therefore, the strategy for efficient fire prevention incorporates a reduction of the vulnerability of buildings. The thesis seeks to illustrate the relevance of such an approach when applied to the damage caused by natural hazards. It examines the role of insurance place and its involvement in targeted prevention of natural disasters. Integrated risk management involves a faultless comprehension of all risk parameters The first part of the thesis is devoted to the theoretical development of the key concepts that influence risk management, such as: hazard, vulnerability, exposure or damage. The literature on this subject, very prolific in recent years, was taken into account and put in perspective in the context of this study. Among the risk parameters, it is shown in the thesis that vulnerability is a factor that we can influence efficiently in order to limit the cost of damage to buildings. This is confirmed through the development of an analysis method. This method has led to the development of a tool to assess damage to buildings by flooding. The tool, designed for the property insurer or owner, proposes several steps, namely: - Vulnerability and damage potential assessment; - Proposals for remedial measures and risk reduction from an analysis of the costs of a potential flood; - Adaptation of a global strategy in high-risk areas based on the elements at risk. The final part of the thesis is devoted to the study of a hail event in order to provide a better understanding of damage to buildings. For this, two samples from the available claims data were selected and analysed in the study. The results allow the identification of new trends A second objective of the study was to develop a hail model based on the available data The model simulates a random distribution of intensities and coupled with a risk model, proposes a simulation of damage costs for the determined study area. Le coût annuel des dommages provoqués par les éléments naturels en Suisse est conséquent et sa tendance est en augmentation depuis plusieurs années, malgré la mise en place d'ouvrages de protection et la mise en oeuvre de moyens importants. Majoritairement induit par des dégâts matériels, le coût est supporté en partie par les assurances immobilières en ce qui concerne les dommages aux bâtiments. Dans de nombreux pays européens, les gouvernements et les compagnies d'assurance se sont mis à concevoir leur stratégie de prévention en termes de réduction de la vulnérabilité. Depuis 2004, en Suisse, ce coût a dépassé celui des dommages dus à l'incendie, activité traditionnelle des établissements cantonaux d'assurance (ECA). Ce fait, aux implications stratégiques nombreuses dans le domaine public de la gestion des risques, résulte en particulier d'une politique de prévention des incendies menée efficacement depuis plusieurs années, notamment par le biais de la diminution de la vulnérabilité des bâtiments. La thèse, par la mise en valeur de données actuarielles ainsi que par le développement d'outils d'analyse, cherche à illustrer la pertinence d'une telle approche appliquée aux dommages induits par les phénomènes naturels. Elle s'interroge sur la place de l'assurance et son implication dans une prévention ciblée des catastrophes naturelles. La gestion intégrale des risques passe par une juste maîtrise de ses paramètres et de leur compréhension. La première partie de la thèse est ainsi consacrée au développement théorique des concepts clés ayant une influence sur la gestion des risques, comme l'aléa, la vulnérabilité, l'exposition ou le dommage. La littérature à ce sujet, très prolifique ces dernières années, a été repnse et mise en perspective dans le contexte de l'étude, à savoir l'assurance immobilière. Parmi les paramètres du risque, il est démontré dans la thèse que la vulnérabilité est un facteur sur lequel il est possible d'influer de manière efficace dans le but de limiter les coûts des dommages aux bâtiments. Ce raisonnement est confirmé dans un premier temps dans le cadre de l'élaboration d'une méthode d'analyse ayant débouché sur le développement d'un outil d'estimation des dommages aux bâtiments dus aux inondations. L'outil, destiné aux assurances immobilières, et le cas échéant aux propriétaires, offre plusieurs étapes, à savoir : - l'analyse de la vulnérabilité et le potentiel de dommages ; - des propositions de mesures de remédiation et de réduction du risque issues d'une analyse des coûts engendrés par une inondation potentielle; - l'adaptation d'une stratégie globale dans les zones à risque en fonction des éléments à risque. La dernière partie de la thèse est consacrée à l'étude d'un événement de grêle dans le but de fournir une meilleure compréhension des dommages aux bâtiments et de leur structure. Pour cela, deux échantillons ont été sélectionnés et analysés parmi les données de sinistres à disposition de l'étude. Les résultats obtenus, tant au niveau du portefeuille assuré que de l'analyse individuelle, permettent de dégager des tendances nouvelles. Un deuxième objectif de l'étude a consisté à élaborer une modélisation d'événements de grêle basée sur les données à disposition. Le modèle permet de simuler une distribution aléatoire des intensités et, couplé à un modèle d'estimation des risques, offre une simulation des coûts de dommages envisagés pour une zone d'étude déterminée. Les perspectives de ce travail permettent une meilleure focalisation du rôle de l'assurance et de ses besoins en matière de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Impression clinique que l'Etat de Stress Post-traumatique (ESPT) est sous-diagnostiqué dans la prise en charge des patients qui sont évalués dans le cadre d'une urgence psychiatrique. Objectifs: (i) identifier la prévalence de l'ESPT dans une unité d'urgence psychiatrique au moyen d'un instrument diagnostic et la comparer avec le diagnostic clinique retenu dans un échantillon historique (ii) évaluer la perception des cliniciens quant à l'utilisation systématique d'un instrument diagnostic Méthodes: la prévalence de l'ESPT a été évaluée chez des patients consécutifs (N = 403) qui ont bénéficié d'une consultation par des psychiatres de l'Unité urgence-crise du Service de Psychiatrie de Liaison (PLI) du CHUV, en utilisant le module J du Mini Mental Neuropsychologic Interview (MINI 5.0.0, version CIM-10). Ce résultat a été comparé avec la prévalence de l'ESPT mentionné comme diagnostic dans les dossiers (N = 350) d'un échantillon historique. La perception des médecins-assistants de psychiatrie quant au dépistage systématique de l'ESPT avec un instrument a été étudiée en se basant sur la conduite d'un focus group d'assistants travaillant dans l'Unité urgence-crise du PLI. Résultats: Parmi les patients (N = 316) évalués à l'aide de l'instrument diagnostic, 20,3% (n = 64) réunissaient les critères de l'ESPT. Cela constitue un taux de prévalence significativement plus élevé que la prévalence d'ESPT documentée dans les dossiers de l'échantillon historique (0,57%). Par ailleurs, la prévalence de l'ESPT est significativement plus élevée parmi les groupes socio- économiques précarisés, tels que réfugiés et sans papiers (50%), patients venant d'un pays à histoire de guerre récente (47,1%), patients avec quatre (44,4%) ou trois comorbidités psychiatriques (35,3%), migrants (29,8%) et patients sans revenus professionnels (25%). Le focus groupe composé de 8 médecins-assistants a révélé que l'utilisation systématique d'un outil- diagnostic ne convenait pas dans le setting d'urgence psychiatrique, notamment parce que l'instrument a été considéré comme non adapté à une première consultation ou jugé avoir un impact négatif sur l'entretien clinique. Toutefois, après la fin de l'étude, les médecins-assistants estimaient qu'il était important de rechercher activement l'ESPT et continuaient à intégrer les éléments principaux du questionnaire dans leur travail clinique. Conclusion et perspectives: cette étude confirme que l'ESPT est largement sous-diagnostiqué dans le contexte des urgences psychiatriques, mais que l'usage systématique d'un outil diagnostic dans ce cadre ne satisfait pas les praticiens concernés. Pour améliorer la situation et au vu du fait qu'un instrument diagnostic est considéré comme non-adapté dans ce setting, il serait peut-être bénéfique d'envisager un dépistage ciblé et/ou de mettre en place une stratégie de formation institutionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement dune candidose invasive est une complication hospitalière particulièrement redoutée en raison de sa mortalité élevée, comparable à celle du choc septique (40 %-60 %). La candidémie survient chez 0,05 % des patients hospitalisés, mais touche près de 1 % de ceux séjournant en réanimation, et est responsable de 5 à 10 % des bactériémies nosocomiales. Bien quune proportion élevée de patients hospitalisés soient colonisés par des levures du genre Candida, seule une minorité développe une candidose sévère. Celle-ci est toutefois difficile à diagnostiquer : les signes évocateurs dune dissémination ne surviennent habituellement que tardivement. Un traitement empirique précoce ou préemptif pourrait améliorer le pronostic, mais pour des raisons tant épidémiologiques quéconomiques, un tel traitement ne peut être appliqué à tous les patients à risque de développer une candidose sévère. Chez les patients présentant des facteurs de risque, la pratique de cultures de surveillance systématiques permet de déceler le développement dune colonisation et d'en quantifier le degré, de manière à ne débuter un traitement préemptif que lorsque lindex de colonisation dépasse un seuil critique prédictif d'infection secondaire. Ces éléments physiopathologiques et la mise à disposition des dérivés triazolés moins toxiques que l'amphotéricine B ont permis l'application de traitements prophylactiques. Chez les patients immunosupprimés, la généralisation de cette approche a été incriminée comme lun des éléments déterminant de lémergence dinfections à Candida non albicans dont le pronostic est moins favorable. Pour les patients de réanimation, une stricte limitation aux groupes soigneusement identifiés comme étant à risque élevé et chez lesquels lefficacité de la prophylaxie a pu être démontrée doit contribuer à limiter cet impact épidémiologique défavorable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : La prise en charge des patients avec hyperglycémie en soins aigus estdifficile et les erreurs de prescription d'insuline sont fréquentes. Notre objectifest de promouvoir l'évolution des pratiques vers une gestion efficace et sécuritairede l'hyperglycémie.Matériels et méthodes : Création d'un programme de formation structuré pourla gestion de l'hyperglycémie en soins aigus. Ce programme est le produit dumétissage entre le modèle de l'accompagnement thérapeutique et la systémiquedu management. Il vise l'acquisition d'une métacognition pour une réflexiontransversale face à l'hyperglycémie. Les objectifs spécifiques sont : comprendreles particularités de l'hyperglycémie en aigu ; gérer le basal/bolus ; argumenterle choix thérapeutique ; s'approprier l'outil sécuritaire d'aide à l'insulinothérapie ;anticiper la sortie du patient. Une analyse mixte a été effectuée : quantitative,glycémies, hypoglycémies, durée de séjour et qualitative, évolution de la réflexionautour de l'hyperglycémie.Résultats : Nov. 2009-2010, dans le Service de Médecine du CHUV, nous avonsdispensé 3 sessions de formation (15 cours), suivies d'une période de coaching,pour 78 internes. Évaluation quantitative : 85 patients (56,4 % H), âge moyen72,7 ± 9,6 ans, glycémies à J3 dans la cible (4-8,5 mmol/l) 44,6 %, glycémiemoyenne 8,5 ± 1,8 mmol/l, hypoglycémies 0,9 %, durée moyenne de séjour9,7 ± 5,4 J. Évaluation qualitative : choix du schéma thérapeutique pertinentdans la majorité des cas, environ 90 % des internes ont intégré les éléments depondération de l'insulinothérapie, estiment que cette formation a eu un impactpositif sur leur gestion, sont plus confiants dans leurs capacités et ont unmeilleur sentiment d'auto-efficacité. Les modalités pédagogiques adoptées ontfavorisé le transfert des compétences et le niveau de satisfaction globale atteint90 %.Conclusion : Le développement d'un programme de formation des soignants,basé sur l'approche réflexive et participative, permet une amélioration importantede la gestion de l'hyperglycémie. Notre projet s'inscrit dans une démarcheglobale visant à doter les bénéficiaires d'une vision systémique du diabète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cerveau est l'organe avec les besoins en énergie les plus élevés du corps humain, et le glucose est un substrat énergétique cérébral essentiel. Ces dernières décennies, la compréhension de la neuroénergétique a beaucoup évolué et un rôle du lactate comme substrat énergétique important a été mis en évidence, notamment suite à l'introduction du modèle de l'ANLS (astrocyte-neuron lactate shuttle). Selon celui-ci, les astrocytes convertissent le glucose en lactate par réaction de glycolyse, puis il est transporté jusqu'aux neurones qui l'utilisent comme source d'énergie à travers le cycle de Krebs. Chez l'homme, divers travaux récents ont montré que le lactate peut servir de « carburant » cérébral chez le sujet sain, après effort intense ou chez le patient diabétique. La régulation métabolique et le rôle du lactate après lésion cérébrale aiguë sont encore peu connus. Présentation de l'article Le but de ce travail a été d'étudier le métabolisme cérébral du lactate chez les patients atteints de traumatisme crânien (TCC) sévère. Nous avons émis l'hypothèse que l'augmentation du lactate cérébral chez ces patients n'était pas associée de manière prédominante à une hypoxie ou une ischémie mais plutôt à une glycolyse aérobie, et également à une perfusion cérébrale normale. L'étude a porté sur une cohorte prospective de 24 patients avec TCC sévère admis au service de médecine intensive du CHUV (centre hospitalier universitaire vaudois), monitorés par un système combinant microdialyse cérébrale (outil permettant de mesurer divers métabolites cérébraux, tels que le lactate, le pyruvate et le glucose), mesure de la pression cérébrale en oxygène et de la pression intracrânienne. Cet outil nous a permis de déterminer si l'élévation du lactate était principalement associée à une glycolyse active ou plutôt à une hypoxie. L'utilisation du CTde perfusion a permis d'évaluer la relation entre les deux patterns d'élévation du lactate (glycolytique ou hypoxique) et la perfusion cérébrale globale. Nos résultats ont montré que l'augmentation du lactate cérébral chez les patients avec TCC sévère était associée de manière prédominante à une glycolyse aérobie plutôt qu'à une hypoxie/ischémie. D'autre part, nous avons pu confirmer que les épisodes de lactate glycolytique étaient toujours associés à une perfusion cérébrale normale ou augmentée, alors que les épisodes de lactate hypoxique étaient associés à une hypoperfusion cérébrale. Conclusions et perspectives Nos résultats, qui ont permis de mieux comprendre le métabolisme cérébral du lactate chez les patients avec TCC sévère, soutiennent le concept que le lactate est produit dans des conditions aérobes et pourrait donc être utilisé comme source d'énergie par le cerveau lésé pour subvenir à des besoins augmentas. Etant donné que la dysfonction énergétique est une des probables causes de perte neuronale après traumatisme crânien, ces résultats ouvrent des perspectives thérapeutiques nouvelles après agression cérébrale chez l'homme, visant à tester un potentiel effet neuroprotecteur via l'administration de lactate exogène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 1990 et la fin de la Guerre Froide, les Etats-Unis d'Amérique sont devenus la première puissance mondiale, animée par l'idéal de défendre les valeurs occidentale et de répandre la démocratie dans le monde. Or, entre des racines identitaires gréco-romaines empruntées à l'Europe, et les guerres menées au Moyen-Orient contre différents ennemis, la « mission » de l'Amérique suscite critiques et interrogations, et le conflit est autant culturel que militaire. L'Iliade d'Homère au contenu guerrier, érigée par la tradition littéraire en oeuvre fondatrice de l'Occident, offre aux penseurs américains de tous horizons un outil de réflexion propre à éclairer ce présent si inconfortable. A travers l'étude d'un corpus tripartite inédit, ce travail se propose de questionner le rôle d'une oeuvre symbolique de l'Antiquité grecque dans le monde d'aujourd'hui, et débouche sur une réflexion plus large touchant au sens contemporain des études classiques et à la transmission du savoir au sein de la culture populaire. Dans un premier temps, elle examine des ouvrages ou articles à vocation scientifique, mais publiés pour la plupart hors du cadre académique, qui théorisent et expriment les enjeux des guerres des cultures américaines (« culture wars ») divisant conservateurs et libéraux sur la mission véritable d'une éducation libérale. Ces ouvrages se servent également de l'Iliade comme d'un miroir où se reflète les conflits modernes, afin d'atténuer le trouble contemporain en juxtaposant passé et présent. Dans un deuxième temps sont abordés les médias journalistiques et informatiques, à l'aide des résultats obtenus lors de recherches poussées, effectuées dans les archives informatiques des journaux publiés dans les capitales et villes majeures des cinquante Etats américains. De fascinantes comparaisons entre la guerre de Troie et la guerre en Irak y sont notamment construites. Le discours sur l'actualité se développe par le recours à l'Antiquité, et en tire de nombreuses « leçons » destinées au gouvernement américain et à tous les meneurs de guerres. Et dans un troisième temps, deux romans de science-fiction, Ilium (2003) et sa suite Olympos (2005), de Dan Simmons, fournissent un fascinant complément littéraire au reste du corpus. Imprégnés par les culture wars, ils transposent l'Iliade dans un lointain futur et expriment sous une forme nouvelle toutes les interrogations brûlantes qui, aujourd'hui particulièrement, animent une Amérique troublée tant par ses guerres que par la remise en question de son identité occidentale. Par cette réunion de trois domaines dissemblables, ce travail pose aussi de nombreuses questions épistémologiques sur la circulation de l'information, la transformation des savoirs, le flou des frontières entre les genres, la révolution que représente Internet, et la fragmentation progressive de la bulle académique. Il propose également de nombreuses perspectives d'ouverture permettant de poursuivre cette recherche. Car la réception contemporaine de l'Iliade - et de l'Antiquité en général - est un domaine riche et dynamique, qui présente l'avantage - ou l'inconvénient, c'est selon - d'être toujours d'actualité. L'inconfort du présent ne devrait pas empêcher son étude, car les résultats sont extrêmement révélateurs de la véritable relation qu'entretiennent les hommes d'aujourd'hui - et non plus seulement les savants - avec leur passé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans la lignée des récents travaux de réévaluation de l'histoire des études cinématographiques. Son objectif est de réviser la conception actuelle de l'historiographie du cinéma en France de 1896 jusqu'au début des années 1950 en remettant en question la vision homogène du courant historique de l'histoire traditionnelle du cinéma telle que l'ont présentée les tenants de la nouvelle histoire du cinéma. Cette thèse se divise en trois parties. J'expose dans la première mon cadre et mon principal outil d'analyse. Je présente l'opération historiographique telle que définie par Michel de Certeau, soit comme le croisement d'un lieu social marqué par des cadres intellectuels dominants, d'un ensemble de procédures dont l'historien se sert pour sélectionner ses sources et construire les faits, et enfin, d'une écriture qui implique l'élaboration d'un système de relations entre les différents faits construits. Je décris ensuite les courants historiques en France des années 1870 jusqu'au début des années 1950. Ce panorama me permet de mieux identifier les échanges, les emprunts et les enrichissements qui se sont opérés entre l'histoire et l'histoire du cinéma durant cette période. Dans la deuxième partie, je « construis » depuis l'intérieur d'un vaste ensemble de discours d'historiens du cinéma, d'historiens de la culture et de théoriciens du cinéma ce qui deviendra la conception dominante de l'historiographie du cinéma. Je montre qu'elle est élaborée par ceux que plusieurs commentateurs nomment les nouveaux historiens du cinéma et qu'elle se réduit à la succession de deux grands courants historiques : l'histoire traditionnelle et la nouvelle histoire du cinéma. J'expose ensuite comment cet acte de périodisation est instrumentalisé par ceux qui l'effectuent. L'objectif des nouveaux historiens n'est pas d'exhumer la pluralité des écritures de l'histoire du cinéma, mais plutôt de mettre en évidence la rupture qu'ils opèrent au sein de l'historiographie du cinéma. L'examen de la place accordée au dispositif cinématographique Hale's Tours dans les histoires générales parues avant et après le Congrès de Brighton me permet finalement d'atténuer la rupture entre ces deux courants historiques. Dans la troisième partie, j'engage l'examen de plusieurs manières d'approcher l'histoire du cinéma. J'identifie différentes ruptures dans l'historiographie française du cinéma concernant l'objet historique que les historiens se donnent, les outils conceptuels qu'ils convoquent et leurs relations aux sources qu'ils utilisent. Ces études de cas me permettent au final de témoigner de la richesse de l'historiographie française du cinéma avant le début des années 1950.