231 resultados para Procédure pénale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de Synthèse : Un sevrage lent comme méthode élective pour l'interruption de la méthadone est coûteux en termes de temps, le plus souvent associé à un taux élevé d'abandon. Bien que les méthodes ultrarapides de désintoxication des opiacés aient gagné en popularité récemment, elles sont chères et posent les problèmes spécifiques liés aux patients traités par la méthadone. Méthodologie: ont été inclus dans l'étude dix patients en traitement de substitution avec de la méthadone. La dernière dose de méthadone a été administrée le matin même du jour de l'admission, en préalable à l'hospitalisation. Les médicaments suivants ont été administrés le jour suivant l'admission: ondansetron 36mg, ranitidine 40mg, loperamide 8m., clonazepam 4m., promazine 1OOmg, metoclopramide 70mg, naltrexone 5Omg. L'échelle objective de sevrage des opiacés (Objective Opiate Withdrawal Scale) a été appliquée au deuxième, troisième et quatrième jour d'hospitalisation, deux fois par jour, à 8h00 et 18h00. Un suivi a été réalisé sous la forme d'entretiens téléphoniques pendant une semaine, respectivement six mois après la date de sortie de l'hôpital, faisant suite à la désintoxication. Un autre entretient téléphonique a été réalisé dans les six mois suivant le "post-sevrage", avec pour objectif d'investiguer la continuité du traitément, une éventuelle rechute dans l'abus de drogues et une possible réintroduction de la méthadone. Résultats: nous avons pu déterminer quatre groupes de symptômes, sur la base d'une observation de trois jours d'évolution: 1) Les signes typiques du syndrome de sevrage de retrait des opiacés, symptôme de froid et chaud, pilo-érection, anxiété caractérisée par une intensité initiale élevée et une disparition relativement continue. 2) Hyperactivité neurovégétative caractérisée par une intensité initiale élevée et une rapide disparition. 3) Phénomènes neurovégétatifs dont l'intensité s'est maintenue durant toute la période d'observation. 4) Contractions musculaires, insomnies et anorexie, manque d'appétit, réapparaissant chez certains patients au 2ème et au début du 3ème jour. Conclusions: une procédure courte de désintoxication utilisant une dose unique de naltrexone s'avère être une méthode alternative valable pour un sevrage de la méthadone. Cette méthode semble accélérer et écourter la symptomatologie associée au sevrage. Le cours des symptômes peut être interprété comme biphasique. Une première phase de retrait est éminemment caractérisée par tous les symptômes typiques eux-mêmes et probablement induits par la naltrexone. La seconde phase, pour un plus petit nombre de patients, peut être interprétée comme en corrélation avec une concentration de méthadone en diminution significative ultérieurement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eladeb est un instrument d'auto-évaluation des difficultés psychosociales et des besoins d'aide de patients psychiatriques. Basé sur une procédure de tri de cartes figuratives, l'outil se démarque des questionnaires et entretiens structurés présents dans l'évaluation psychométrique clinique, en proposant une activité ludique qui laisse aussi un large espace de dialogue pour l'expression qualitative des difficultés et des besoins. Les expériences conduites sur le terrain montrent qu'il est bien accepté par les patients et les professionnels. Après une brève présentation de l'instrument, cet article expose une vignette clinique ainsi que le témoignage de son utilisation dans le cadre d'une fonda~ion spécialisée dans le suivi de patients psychiatriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article vise à illustrer la collaboration et l'enrichissement mutuel qu'apportent aux chercheurs et aux cliniciens l'utilisation de la «consultation systémique». Cette dernière, demandée soit spontanément par les parents, soit par le(s) thérapeute(s) qui suive(nt) la famille, a pour but l'évaluation des interactions familiales. Lors d'une première rencontre, les questions qui motivent les parents et/ou thérapeute(s) à consulter sont formulées et la famille est invitée à faire des jeux familiaux semi-standardisés qui sont filmés. Lors d'une deuxième rencontre réunissant les mêmes personnes, un visionnement d'extraits des films sert de base à une discussion ainsi qu'à l'élaboration de réponses aux questions posées, en partant des observations des chercheurs. Après une description de la consultation systémique standard (principes, objectifs, procédure et situations d'observation), une vignette clinique atypique, concernant des violences intrafamiliales, illustrera la variété et la richesse de ces consultations. Les observations micro et macro-analytiques des interactions données par les chercheurs, auxquelles s'ajoute la compréhension clinique des thérapeutes, montrent qu'une collaboration entre eux est fructueuse pour toutes les parties concernées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Généralités : Politique et objectifs qualité - Cadre général - Responsabilité des directeurs d'établissements - Système d'information - Financement. 2. Organisation du Programme Qualité : Organisation générale - Revue de direction. 3. Procédures : Procédure d'élaboration et de sélection des projets (avec demande de financement;avec demande de soutien technique; pour information; appel d'offres) - Procédure de suivi. 4. Annexes : Contrat pour la réalisation d'un projet qualité : pour information, sans soutien - avec demande de soutien technique - avec demande de soutien financier. Ce document à usage interne définit la politique "qualité" et décrit l'ensemble des dispositions générales prises en matière de qualité pour la période 97-98.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHÈSE : Chez les patients présentant une pathologie de la colonne cervicale, l'instrumentation des voies aériennes peut s'avérer délicate. En effet, l'impossibilité d'effectuer une extension de la nuque afin d'aligner correctement l'axe oro-pharyngo-trachéal, ainsi que l'ouverture de bouche limitée par la présence d'une minerve cervicale, rendent la laryngoscopie standard extrêmement difficile. Le but de cette étude est de démontrer que l'intubation oro-trachéale avec une minerve cervicale semi-rigide est possible à l'aide d'un vidéolaryngoscope récemment développé, le GlideScope®. Celui-ci est formé d'une lame courbe présentant une angulation accentuée à 60° à partir de son milieu, avec une petite caméra haute résolution et une source lumineuse enchâssées dans la partie inférieure au point d'inflexion. Différents travaux ont montré les avantages du GlideScope® par rapport à la lame de Macintosh standard "pour l'instrumentation des voies aériennes de routine ou en situation difficile. Après acceptation par la Commission d'Ethique, 50 patients, adultes consentants et programmés pour une intervention chirurgicale élective nécessitant une anesthésie générale ont été inclus dans cette étude. Malgré la présence d'une minerve cervicale semi-rigide Philadelphia® Patriot correctement positionnée et la tête fixée à la table d'opération, tous les patients ont pu être intubés a l'aide du GlideScope®. Aucune complication n'a été documentée pendant la procédure ou en post-opératoire. De plus, nous avons démontré que dans cette situation la visualisation des structures laryngées est significativement améliorée grâce au GlideScope®, par rapport à la lame de Macintosh utilisée lors de toute intubation standard. En conclusion, l'intubation oro-trachéale chez les patients ayant une minerve cervicale et la tête fixée est possible à l'aide du GlideScope®. La meilleure façon de sécuriser les voies aériennes chez les patients présentant une instabilité de la colonne cervicale est un sujet fortement débattu. L'utilisation du GlideScope® pourrait s'avérer une alternative intéressante, en particulier dans les situations d'urgence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Ce travail s'intéresse à la mise en oeuvre des politiques publiques visant à résoudre les problèmes engendrés par le développement de la mobilité urbaine. Nous adoptons sur cette dernière un point de vue nouveau, à savoir que l'enjeu de la régulation du trafic est d'abord celui de la maîtrise des usages nombreux et conflictuels sur deux ressources collectives, l'air et les voies publiques. Pour comprendre comment ces usages sont régulés, nous mobilisons les deux apports théoriques de l'économie institutionnelle (Bromley 1991, Devlin et Grafton 1990, Ostrom 1990, 2000) et de l'analyse des politiques publiques (Knoepfel et al. 2001) au sein du cadre d'analyse des régimes institutionnels de ressources collectives. La première problématise la difficulté de définir des règles communes d'usage pour éviter la surexploitation des ressources alors que la seconde met en jeu notamment le problème de la coordination des politiques publiques d'exploitation et de protection de l'environnement. Sur ce socle, nous choisissons de retenir une approche « institutionnaliste centrée sur les acteurs » (Scharpf 1997), aussi thématisée par les approches néo-institutionnalistes (Hall/Taylor 1996, March/Olsen 1989) visant à expliquer le changement politique par deux types de variables explicatives, à savoir les changements dans la régulation publique (variable institutionnelle) et les changements de la configuration des acteurs en présence, à partir desquels nous bâtissons nos hypothèses de recherche. En l'espèce, l'étude mobilise la variable explicative des régimes institutionnels de l'air et du sol mobilisés par les acteurs de la mobilité pour comprendre l'évolution de la répartition des usages sur les routes urbaines. Ce processus passe par le recours à des ressources de politiques publiques comme le droit, l'argent, l'information, le consensus, le soutien politique, l'infrastructure ou le temps que les acteurs peuvent activer en fonction des règles institutionnelles en présence. On peut classer ces dernières d'abord selon leur niveau de généralité (niveaux opérationnel, des choix collectifs et constitutionnel - Ostrom 1990). L'étude établit que la régulation des usages connaît une importante gradation que rend compte le concept de résistance normative. En fonction de cette dernière, les acteurs essaient de s'imposer au moyen de deux dimensions des règles, que ce travail met en exergue, à savoir selon qu'elles régulent tantôt le mode de décision tantôt le mode d'appropriation. Ces règles décisionnelles et possessionnelles déterminent les possibilités d'accès, ainsi que la procédure d'intervention et la place qui sont réservées aux acteurs, aussi bien pour les ressources collectives physiques que de politique publique. L'étude permet ainsi à la fois d'apporter des éléments nouveaux à la théorie des changements de régimes institutionnels de ressources collectives, d'éclairer un peu plus les processus de mise en couvre de l'action publique et de contribuer au débat sur les principales propositions permettant de maîtriser les impacts négatifs du développement de la mobilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte a pour ambition de revenir sur une procédure d'expérimentation destinée à tester l'impact du vote par approbation ainsi que du vote par note sur l'ampleur de ce qu'on a coutume d'appeler le vote utile. Les résultats de ces expériences, menées lors des élections présidentielles françaises de 2007 et de 2012, ont fait l'objet de deux articles publiés dans la Revue économique. Notre objectif est ici d'attirer l'attention du lecteur sur la conception implicite qui sous-tend ces expériences : le vote comme outil de dévoilement des préférences individuelles. Une telle orientation se fait au détriment d'une conception stratégique du vote, c'est-à-dire le vote comme processus de coordination. Or, il nous semble que le propre du vote utile est précisément de s'inscrire dans une dimension stratégique du vote, dimension que la procédure expérimentale mise en place tend à gommer en ne fournissant pas aux votants de repères informationnels relatifs aux choix des autres votants. On parlera à cet effet d'isolation informationnelle. This text has the ambition to return to an experimental procedure designed to test the impact of approval voting as well as evaluating voting on the scope of what is called in French vote utile (strategic voting). The results of these experiences, held during the 2007 and 2012 French presidential elections, have been the object of two papers published in the Revue économique. Our aim is to catch the attention of readers on the implicit conception inherent to these experiences: voting as a means to reveal individual preferences. Such a direction is taken at the cost of a strategic conception of voting, i.e. voting as a coordination process. Yet, it seems to us that the main characteristic of strategic voting is precisely to be strategic. The design of the experimental procedure tends to erase this dimension, by depriving the voters of information on other voter's choices. This is what we call informational isolation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La diminution de la fraction d'éjection après infarctus du myocarde est-elle suffisante pour justifier l'implantation prophylactique de défibrillateur ? Introduction: La diminution de la fraction d'éjection (FE) est un facteur prédictif majeur de mortalité cardiaque chez les patients avec ancien infarctus du myocarde (IM). Les plus récentes études, pour la plupart conduites à la fin des années 90, montrent une diminution de la mortalité post-hospitalière à 10 à 20% par année. Une amélioration de la survie par implantation prophylactique de défibrillateurs a été démontrée chez les patients avec dysfonction myocardique avancée après ancien IM dans la cadre de l'étude MADIT II (Multicenter Automatic Defibrillator Implantation Trial) et est depuis lors, considérée comme une thérapie recommandée. Le bénéfice de l'implantation prophylactique de défibrillateurs en terme de nombre nécessaire de patients à traiter pour prévenir un évènement est d'un intérêt primordial en raison des complications potentielles liées à la procédure et l'appareillage, des implications psychologiques ainsi qu'en raison de l'analyse coût-efficacité. Le nombre de patients à traiter est corrélé au risque actuel de mortalité rythmique, probablement influencé par les récentes avancées thérapeutiques dans la prise en charge aigue de l'IM (notamment par angioplastie primaire) et de l'insuffisance cardiaque. Or, dans '' l'étude MADIT II, le recrutement des patients était effectué entre 1997 et 2001 et l'intervalle moyen entre l'IM et le recrutement était de plus de 6 ans. Le but de l'étude était donc d'évaluer, dans la pratique générale, la mortalité actuelle de patients ayant survécu à un IM avec diminution consécutive significative de la FE. La stratification du risque sur la base des variables hospitalières a de même été explorée. Méthode: Une analyse de cohorte de patients avec infarctus aigu du myocarde admis de 1999 à 2000 a été effectuée dans 2 centres hospitaliers (un universitaire et un cantonal). Tous les dossiers cliniques des patients sortis d'hôpital avec FE documentée ≤ 0.40 ont été inclus. Les caractéristiques des patients, les procédures diagnostiques et thérapeutiques ainsi que la médication étaient reportées. La période de suivi débutait à la sortie d'hôpital. Les end-points primaires étaient la mortalité globale, la mortalité cardiaque et les morts subites. Une analyse bivariée et multivariée a été effectuée. Résultats: 165 patients ont été inclus. Durant un suivi médian de 30 mois (interquartile range 22-36), 18 patients sont décédés (5 morts classifiées comme cardiaques, 8 comme subites, 5 de causes non cardiaques). Les taux de mortalité à un et deux ans selon analyse de Kaplan-Meier étaient de 6.7 et 8.6%, respectivement. Les variables reflétant l'atteinte coronarienne et sa prise en charge (antécédent d'IM, reperfusion aigue, revascularisation complète) étaient plus significativement associées à la mortalité comparées aux variables reflétant la dysfonction myocardique (FE, classe Killip à l'admission). Conclusion : La mortalité des patients ayant survécu à un IM avec dysfonction myocardique avancée a diminué de façon substantielle depuis la fin des années 90. La diminution de la mortalité rythmique implique une augmentation proportionnelle du nombre de patients à traiter par implantation de défibrillateur pour prévenir un évènement. Par ailleurs, une stratification du risque après IM basée uniquement sur la FE semble être inappropriée au vu de son impact mineur sur la mortalité comparé aux autres facteurs de risque identifiés dans notre étude. Les patients sans antécédents d'infarctus et ceux ayant bénéficié d'une revascularisation aigue ou complète avait une mortalité cumulée à 2 ans de, respectivement, 2.5%, 3.9% et 2.3%. Pour ce type de patients à bas risque le bénéfice de l'implantation prophylactique de défibrillateur doit être remis en question. Au vu de cette étude, une stratification additionnelle du risque avant implantation de défibrillateur est à considérer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pose d'un cathéter veineux central peut se faire par plusieurs abords. La connaissance de l'anatomie, du matériel, la maîtrise des détails de la procédure pour chaque type d'abord et une attention particulière à l'asepsie sont des prérequis importants pour limiter les risques de complications et pour donner une information complète et exhaustive au patient. Cet article peut être utilisé comme base pour le développement d'une check-list, utile pour les médecins qui doivent procéder à la pose d'un cathéter veineux central mais qui ne possèdent pas encore une maîtrise du geste. Several approaches exist for central vein catheterization. Mastery of the various steps of this procedure and understanding of the basics of asepsis are critical to prevent any complication. They also built the basis for an exhaustive communication with the patient, to obtain an informed consent. This article can in addition be used to develop a checklist in order to (self-)assess competence in procedural skills