352 resultados para Stratégies de gestion du risque
Resumo:
Rapport de synthèse : Introduction: la prévalence de l'insuffisance rénale chronique (IRC) augmente et malgré les traitements de remplacement rénal telle que la transplantation ou la dialyse, la mortalité chez des patients atteints d'une IRC reste très élevée. Les maladies cardiovasculaires sont la cause principale de mortalité chez ces patients, et le risque de décès dú à une complication cardiovasculaire est chez eux accru de 10 à 20 fois par rapport à la population générale. Méme si les facteurs de risque cardiovasculaires «traditionnels », principalement l'hypertension artérielle et le diabète sont très prévalents chez les patients avec IRC, ils sont insuffisants pour expliquer l'excès de mortalité cardiovasculaire. D'autres facteurs de risques « nontraditionnels » comme l'accumulation du diméthylarginine asymétrique (ADMA), un inhibiteur endogène de la synthase d'oxyde d'azote (NO), semblent aussi être importants. Chez les patients avec IRC, des taux élevés d'ADMA sont un puissant facteur prédictif indépendant de la mortalité cardiovasculaire. Il a également été démontré chez des souris que l'ADMA peut étre une cause directe de dysfonction endothéliale. Cette dernière joue un rôle primordial dans le développement de l'athérosclérose, cause principale des complications cardiovasculaires. Le but du présent travail est de tester l'hypothèse qu'une réduction du taux d'ADMA après une séance unique d'hémodialyse améliore la dysfonction endothéliale. Méthodes: la dysfonction endothéliale peut être évaluée dans les microvaisseaux de la péan de façon non invasive par fluxmétrie laser Doppler. La vasodilatation cutanée induite par un échauffement local de 34° à 41 °C (hyperémie thermique) est connue pour être dépendante de la production endothéliale de NO et a été utilisée dans plusieurs études cliniques pour évaluer la dysfonction endothéliale. Nous avons recruté 24 patients traités par hémodialyse chronique et également 24 sujets contrôles du même âge et sexe. Chez les patients dialysés, l'hyperémie thermique est mesuré une fois directement avant une séance d'hémodialyse, et une fois directement après une autre séance, toutes deux distantes de 2 à 7 jours. En même temps, les taux plasmatiques d'ADMA sont mesurés par la méthode de spectrométrie de masse en tandem. Chez les sujets contrôle, l'hyperémie thermique est également mesurée à deux reprises, à un intervalle de 2 à 7 jours comme chez les patients dialysés et les taux d'ADMA sont déterminés qu'une seule fois. Résultats: chez les patients dialysés, les réactions d'hyperémie thermique étaient superposables avant et après dialyse, mais moindre que chez les sujets contrôles. Par contre, les taux d'ADMA étaient plus élevés avant qu'après dialysé. Les taux d'ADMA après dialyse étaient similaires aux taux chez les sujets contrôles. Conclusion: cette étude montre que la vasodilatation dépendante de la production endothéliale de NO dans la microcirculation cutanée n'est pas influencée par les taux plasmatiques d'ADMA chez les patients dialysés. Ces résultats suggèrent que d'autres mécanismes sont responsables de la dysfonction endothéliale chez ces patients. Ceci met en question le concept que l'accumulation d'ADMA est un facteur causal du risque cardiovasculaire élevé et suggère que l'ADMA est juste un marqueur du milieu très athérogénique causé par l'IRC.
Resumo:
RESUME L'objectif de cette étude est d'évaluer comment de jeunes médecins en formation perçoivent le risque cardiovasculaire de leurs patients hypertendus en se basant sur les recommandations médicales (« guidelines ») et sur leur jugement clinique. Il s'agit d'une étude transversale observationnelle effectuée à la Policlinique Médicale Universitaire de Lausanne (PMU). 200 patients hypertendus ont été inclus dans l'étude ainsi qu'un groupe contrôle de 50 patients non hypertendus présentant au moins un facteur de risque cardiovasculaire. Nous avons comparé le risque cardiovasculaire à 10 ans calculé par un programme informatique basé sur l'équation de Framingham. L'équation a été adaptée pour les médecins par l'OMS-ISH au risque perçu, estimé cliniquement par les médecins. Les résultats de notre étude ont montrés que les médecins sous-estiment le risque cardiovasculaire à 10 ans de leurs patients, comparé au risque calculé selon l'équation de Framingham. La concordance entre les deux méthodes était de 39% pour les patients hypertendus et de 30% pour le groupe contrôle de patients non hypertendus. La sous-estimation du risque. cardiovasculaire pour les patients hypertendus était corrélée au fait qu'ils avaient une tension artérielle systolique stabilisée inférieure a 140 mmHg (OR=2.1 [1.1 ;4.1]). En conclusion, les résultats de cette étude montrent que les jeunes médecins en formation ont souvent une perception incorrecte du risque cardiovasculaire de leurs patients, avec une tendance à sous-estimer ce risque. Toutefois le risque calculé pourrait aussi être légèrement surestimé lorsqu'on applique l'équation de Framingham à la population suisse. Pour mettre en pratique une évaluation systématique des facteurs de risque en médecine de premier recours, un accent plus grand devrait être mis sur l'enseignement de l'évaluation du risque cardiovasculaire ainsi que sur la mise en oeuvre de programme pour l'amélioration de la qualité.
Resumo:
Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.
Resumo:
La rigidité anormalement haute des artères à grande conductance est un marqueur de l'augmentation du risque cardiovasculaire et est typiquement retrouvée chez les patients diabétiques ou hypertendus. Ces vaisseaux deviennent plus rigides avec l'âge, expliquant la haute prévalence d'hypertension systolique chez les personnes âgées. Cette rigidification agit sur la pression sanguine de plusieurs façons. Notamment la fonction windkessel est gênée, menant à l'augmentation de la pression systolique et de la pression puisée, la diminution de la pression diastolique, et ainsi à l'augmentation de la postcharge ventriculaire gauche associée à une probable diminution de la perfusion coronarienne. De plus, la propagation des ondes de pression le long de l'arbre vasculaire est accélérée, de sorte que les ondes réfléchies générées au site de décalage d'impédance atteignent l'aorte ascendante plus tôt par rapport au début de l'éjection ventriculaire, aboutissant à une augmentation de la pression systolique centrale, ce qui n'arriverait pas en présence de vaisseaux moins rigides. Dans ce cas, au contraire, les ondes de pression antérogrades et réfléchies voyages plus lentement, de sorte que les ondes de réflexion tendent à atteindre l'aorte centrale une fois l'éjection terminée, augmentant la pression diastolique et contribuant à la perfusion coronarienne. La tonométrie d'applanation est une méthode non invasive permettant l'évaluation de la forme de l'onde de pression au niveau l'aorte ascendante, basée sur l'enregistrement du pouls périphérique, au niveau radial dans notre étude. Nous pouvons dériver à partir de cette méthode un index d'augmentation systolique (sAIX) qui révèle quel pourcentage de la pression centrale est du aux ondes réfléchies. Plusieurs études ont montré que cet index est corrélé à d'autres mesures de la rigidité artérielle comme la vitesse de l'onde de pouls, qu'il augmente avec l'âge et avec les facteurs de risques cardiovasculaires, et qu'il est capable de préciser le pronostic cardiovasculaire. En revanche, peu d'attention a été portée à l'augmentation de la pression centrale diastolique due aux ondes réfléchies (dAIX). Nous proposons donc de mesurer cet index par un procédé d'analyse développé dans notre laboratoire, et ce dans la même unité que l'index systolique. Etant donné que les modifications de la paroi artérielle modulent d'une part la vitesse de l'onde de pouls (PWV) et d'autre part le temps de voyage aller-retour des ondes de pression réfléchies aux sites de réflexion, toute augmentation de la quantité d'énergie réfléchie atteignant l'aorte pendant la systole devrait être associée à une diminution de l'énergie arrivant au même point pendant la diastole. Notre étude propose de mesurer ces deux index, ainsi que d'étudier la relation de l'index d'augmentation diastolique (dAIX) avec la vitesse de propagation de l'onde de pouls (PWV) et avec le rythme cardiaque (HR), ce dernier étant connu pour influencer l'index d'augmentation systolique (sAIX) . L'influence de la position couchée et assise est aussi étudiée. Les mesures de la PWV et des sAIX et dAIX est réalisée chez 48 hommes et 45 femmes âgées de 18 à 70 ans, classés en 3 groupes d'âges. Les résultats montrent qu'en fonction de l'âge, le genre et la position du corps, il y a une relation inverse entre sAIX et dAIX. Lorsque PWV et HR sont ajoutés comme covariables à un modèle de prédiction comprenant l'âge, le genre et la position du corps comme facteurs principaux, sAIX est directement lié à PWV (p<0.0001) et inversement lié à HR (p<0.0001). Avec la même analyse, dAIX est inversement lié à PWV (p<0.0001) et indépendant du rythme cardiaque (p=0.52). En conclusion, l'index d'augmentation diastolique est lié à la rigidité vasculaire au même degré que l'index d'augmentation systolique, alors qu'il est affranchi de l'effet confondant du rythme cardiaque. La quantification de l'augmentation de la pression aortique diastolique due aux ondes réfléchies pourrait être une partie utile de l'analyse de l'onde de pouls.
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Summary Detection, analysis and monitoring of slope movements by high-resolution digital elevation modelsSlope movements, such as rockfalls, rockslides, shallow landslides or debris flows, are frequent in many mountainous areas. These natural hazards endanger the inhabitants and infrastructures making it necessary to assess the hazard and risk caused by these phenomena. This PhD thesis explores various approaches using digital elevation models (DEMs) - and particularly high-resolution DEMs created by aerial or terrestrial laser scanning (TLS) - that contribute to the assessment of slope movement hazard at regional and local scales.The regional detection of areas prone to rockfalls and large rockslides uses different morphologic criteria or geometric instability factors derived from DEMs, i.e. the steepness of the slope, the presence of discontinuities, which enable a sliding mechanism, and the denudation potential. The combination of these factors leads to a map of susceptibility to rockfall initiation that is in good agreement with field studies as shown with the example of the Little Mill Campground area (Utah, USA). Another case study in the Illgraben catchment in the Swiss Alps highlighted the link between areas with a high denudation potential and actual rockfall areas.Techniques for a detailed analysis and characterization of slope movements based on high-resolution DEMs have been developed for specific, localized sites, i.e. ancient slide scars, present active instabilities or potential slope instabilities. The analysis of the site's characteristics mainly focuses on rock slopes and includes structural analyses (orientation of discontinuities); estimation of spacing, persistence and roughness of discontinuities; failure mechanisms based on the structural setting; and volume calculations. For the volume estimation a new 3D approach was tested to reconstruct the topography before a landslide or to construct the basal failure surface of an active or potential instability. The rockslides at Åknes, Tafjord and Rundefjellet in western Norway were principally used as study sites to develop and test the different techniques.The monitoring of slope instabilities investigated in this PhD thesis is essentially based on multitemporal (or sequential) high-resolution DEMs, in particular sequential point clouds acquired by TLS. The changes in the topography due to slope movements can be detected and quantified by sequential TLS datasets, notably by shortest distance comparisons revealing the 3D slope movements over the entire region of interest. A detailed analysis of rock slope movements is based on the affine transformation between an initial and a final state of the rock mass and its decomposition into translational and rotational movements. Monitoring using TLS was very successful on the fast-moving Eiger rockslide in the Swiss Alps, but also on the active rockslides of Åknes and Nordnesfjellet (northern Norway). One of the main achievements on the Eiger and Aknes rockslides is to combine the site's morphology and structural setting with the measured slope movements to produce coherent instability models. Both case studies also highlighted a strong control of the structures in the rock mass on the sliding directions. TLS was also used to monitor slope movements in soils, such as landslides in sensitive clays in Québec (Canada), shallow landslides on river banks (Sorge River, Switzerland) and a debris flow channel (Illgraben).The PhD thesis underlines the broad uses of high-resolution DEMs and especially of TLS in the detection, analysis and monitoring of slope movements. Future studies should explore in more depth the different techniques and approaches developed and used in this PhD, improve them and better integrate the findings in current hazard assessment practices and in slope stability models.Résumé Détection, analyse et surveillance de mouvements de versant à l'aide de modèles numériques de terrain de haute résolutionDes mouvements de versant, tels que des chutes de blocs, glissements de terrain ou laves torrentielles, sont fréquents dans des régions montagneuses et mettent en danger les habitants et les infrastructures ce qui rend nécessaire d'évaluer le danger et le risque causé par ces phénomènes naturels. Ce travail de thèse explore diverses approches qui utilisent des modèles numériques de terrain (MNT) et surtout des MNT de haute résolution créés par scanner laser terrestre (SLT) ou aérien - et qui contribuent à l'évaluation du danger de mouvements de versant à l'échelle régionale et locale.La détection régionale de zones propices aux chutes de blocs ou aux éboulements utilise plusieurs critères morphologiques dérivés d'un MNT, tels que la pente, la présence de discontinuités qui permettent un mécanisme de glissement ou le potentiel de dénudation. La combinaison de ces facteurs d'instabilité mène vers une carte de susceptibilité aux chutes de blocs qui est en accord avec des travaux de terrain comme démontré avec l'exemple du Little Mill Campground (Utah, États-Unis). Un autre cas d'étude - l'Illgraben dans les Alpes valaisannes - a mis en évidence le lien entre les zones à fort potentiel de dénudation et les sources effectives de chutes de blocs et d'éboulements.Des techniques pour l'analyse et la caractérisation détaillée de mouvements de versant basées sur des MNT de haute résolution ont été développées pour des sites spécifiques et localisés, comme par exemple des cicatrices d'anciens éboulements et des instabilités actives ou potentielles. Cette analyse se focalise principalement sur des pentes rocheuses et comprend l'analyse structurale (orientation des discontinuités); l'estimation de l'espacement, la persistance et la rugosité des discontinuités; l'établissement des mécanismes de rupture; et le calcul de volumes. Pour cela une nouvelle approche a été testée en rétablissant la topographie antérieure au glissement ou en construisant la surface de rupture d'instabilités actuelles ou potentielles. Les glissements rocheux d'Åknes, Tafjord et Rundefjellet en Norvège ont été surtout utilisés comme cas d'étude pour développer et tester les diverses approches. La surveillance d'instabilités de versant effectuée dans cette thèse de doctorat est essentiellement basée sur des MNT de haute résolution multi-temporels (ou séquentiels), en particulier des nuages de points séquentiels acquis par SLT. Les changements topographiques dus aux mouvements de versant peuvent être détectés et quantifiés sur l'ensemble d'un glissement, notamment par comparaisons des distances les plus courtes entre deux nuages de points. L'analyse détaillée des mouvements est basée sur la transformation affine entre la position initiale et finale d'un bloc et sa décomposition en mouvements translationnels et rotationnels. La surveillance par SLT a démontré son potentiel avec l'effondrement d'un pan de l'Eiger dans les Alpes suisses, mais aussi aux glissements rocheux d'Aknes et Nordnesfjellet en Norvège. Une des principales avancées à l'Eiger et à Aknes est la création de modèles d'instabilité cohérents en combinant la morphologie et l'agencement structural des sites avec les mesures de déplacements. Ces deux cas d'étude ont aussi démontré le fort contrôle des structures existantes dans le massif rocheux sur les directions de glissement. Le SLT a également été utilisé pour surveiller des glissements dans des terrains meubles comme dans les argiles sensibles au Québec (Canada), sur les berges de la rivière Sorge en Suisse et dans le chenal à laves torrentielles de l'Illgraben.Cette thèse de doctorat souligne le vaste champ d'applications des MNT de haute résolution et particulièrement du SLT dans la détection, l'analyse et la surveillance des mouvements de versant. Des études futures devraient explorer plus en profondeur les différentes techniques et approches développées, les améliorer et mieux les intégrer dans des pratiques actuelles d'analyse de danger et surtout dans la modélisation de stabilité des versants.
Resumo:
Rapport de synthèse : Bien que les complications sévères de l'anesthésie soient actuellement rares, des informations contradictoires existent à propos du rôle et de l'importance de l'hypertension artérielle chronique sur la survenue de complications en cours d'anesthésie. En raison de la prévalence élevée de l'hypertension artérielle dans la population et du grand nombre d'anesthésies effectuées, il est important de clarifier cette relation. Le but de l'étude était d'évaluer si les personnes hypertendues étaient à risque accru de présenter des complications lors d'anesthésies à partir de données collectées de routine lors d'anesthésies usuelles réalisées en Suisse. Nous avons utilisé les données figurant dans le registre ADS (Anesthésie Données Suisse) correspondant à des anesthésies, générales ou locorégionales, réalisées pour chirurgie élective chez des adultes, entre 2000 et 2004 dans 24 hôpitaux suisses. L'attention était portée principalement sur les incidents cardio-vasculaires, mais les autres incidents relevés de routine ont aussi été évalués. La présence d'une hypertension artérielle chronique était définie par la présence d'un traitement antihypertenseur ou par l'anamnèse d'une hypertension artérielle, combinée à la mesure d'une pression artérielle élevée (systolique >160 mm Hg ou diastolique >100 mm Hg) lors de l'examen préopératoire de l'anesthésiste. Les incidents relevés en cours d'anesthésie ont été définis a priori et sont enregistrés de routine sur la feuille d'anesthésie et reportés dans une base de données centralisée. En raison de la structure des données, des analyses hiérarchiques ont été effectuées incluant des variables individuelles (niveau 1), liées aux groupes d'interventions chirurgicales (niveau 2) et à l'hôpital (niveau 3). Parmi les 124 939 interventions, 27 881 (22%) concernaient des patients connus pour une hypertension artérielle chronique. Au moins un incident est survenu dans 16,8% des interventions (95% Cl 16,6 -17,0%). Chez 7 549 patients, au moins un incident cardio- vasculaire est survenu, soit dans 6% des anesthésies (95% Cl 5.9-6.2%). Le rapport des cotes (odds ratio) moyen ajusté pour les incidents cardio-vasculaires chez les patients hypertendus était de 1.38 (95% Cl 1.27-1.49), indiquant une augmentation du risque chez les patients hypertendus. Cependant, l'hypertension n'était pas liée à un risque augmenté de survenue d'un autre incident. Les rapports de cotes ajustés de la survenue d'une complication cardiovasculaire en présence d'une hypertension artérielle variaient selon les hôpitaux entre 0.41 et 2.25. Ainsi, cette étude confirme la présence d'un risque accru de survenue d'une complication cardiovasculaire chez un patient hypertendu lors d'une anesthésie pour chirurgie élective. Il s'agissait le plus souvent d'une arythmie ou d'une perturbation hémodynamique. Cette augmentation du risque proche de 40% a aussi été trouvée dans une revue systématique avec méta-analyse. L'hétérogénéité des institutions -qui persiste même en tenant compte des ajustements pour le type d'intervention chirurgicale et des variables individuelles (case-mix) - suggère des différences de pratique de l'anesthésie selon l'hôpital.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
Drug addiction is a multi-etiological disorder to which some individuals are more vulnerable an others. Whereas converging clinical and epidemiological studies report a peak of drug use ring adolescence, many behavioral traits characterizing teenagers have been proposed to contribute to this vulnerability, including a heightened sensation-seeking, an enhanced impulsivity d a larger influence exerted by peers. By many aspects, juvenile rodents display behavioral traits at resemble those of teenagers. However, the concept of increased vulnerability to drug addiction juvenile rats remains in debate. Indeed, only a few studies directly compared juvenile and adult fdents regarding behavioral predictors of drug abuse. Moreover, some key features of drug diction have never been investigated in juvenile rats yet. For this very reason, we conducted a arge-scale behavioral comparison of adult and adolescent rats with the aim of dissecting their espective behavioral traits and vulnerabilities to drug addiction. We first have shown that juvenile rats exhibited an enhanced motor impulsivity, and a loss of control over reward seeking assessed by a persistent reward taking despite adverse consequences mild electric footshocks]. We also report that juvenile rats displayed a higher anxiety profile, ind we discuss why these behaviors might represent key underpinning mechanisms leading to an enhanced vulnerability to drug abuse. Meanwhile, we collected clear cut observations that do not support such an interpretation. In Articular, juvenile and adult rats displayed identical novelty-induced habituation and preference at are considered to represent two potent predictors of cocaine initiation and compulsive intake, "pre strikingly, juvenile rats were less attracted by cues predicting reward in a Pavlovian utoshaping task, suggesting a lower propensity for cues or context to trigger the reinstatement of a^previously extinguished reward seeking behavior. Finally, using a paradigm assessing schedule- ciuced polydipsia, juvenile and adult rats exhibited similar compulsive drinking, under control conditions and following a chronic cocaine treatment as well. Hence, these observations call for a cautious interpretation of adolescent vulnerability to drug use. In particular, we underlined that even the most compulsive young rats did not consume ärger amounts of cocaine than adults, nor exhibited larger efforts in a cue-induced relapse aradigm, despite a transient increased motivation for lever-pressing. And further, despite a higher ensitivity to the behavioral effects of cocaine, juvenile rats did not differ from adults in their ropensity to constantly prefer saccharin over cocaine in a discrete-choice procedure, even after a ?'Id chronic stress procedure. Altogether, our results shape an objective overview of the juvenile rats' behavior in relation to oth drug and non-drug rewards, suggesting a heterogeneous and task-specific profile. Despite elements potentially underlying a real risk for substance use, adolescent rats do not exhibit a ehavioral repertoire suggesting increased vulnerability for compulsive drug abuse. Our conclusions strongly encourage deeper neurobiological investigations of the developing brain, and also open a debate on a possible overestimation of juvenile rats' and teenager's risk to develop aladaptive behaviors and drug addiction. - L'addiction aux drogues est une pathologie d'origine multifactorielle, à laquelle certains individus sont plus vulnérables que d'autres. De nombreuses études cliniques et épidémiologiques suggèrent une consommation excessive de drogues pendant l'adolescence, et plusieurs explications ont été avancées pour justifier cette tendance, parmi lesquelles on note une augmentation de la recherche de sensation, une impulsivité plus marquée et une plus forte influence de l'entourage. Le rat juvénile présente de nombreuses caractéristiques développementales similaires à l'adolescence humaine. En revanche, la vulnérabilité des rats juvéniles à l'abus de drogue est encore sujette à caution. En effet, peu d'études ont directement comparé des traits de comportements pouvant refléter un accroissement du risque d'abus chez les rats juvéniles par comparaison aux rats adultes. En outre, certaines caractéristiques fondamentales de l'addiction chez l'homme n'ont pas encore été étudiées chez le rat adolescent. Ce travail de thèse s'est donc donné pour objectif de comparer le comportement de rats adultes vis-à-vis de celui de rats adolescents, afin d'évaluer dans quelle mesure ces derniers seraient plus vulnérables à l'abus de drogues. Nos résultats indiquent que les rats juvéniles présentent une augmentation des comportements impulsifs, ainsi qu'une plus grande persistance à rechercher de manière compulsive une récompense en dépit de légers chocs électriques. Les rats juvéniles présentent également un profil anxieux plus élevé, ce qui peut constituer une autre source de vulnérabilité. Cependant, certaines caractéristiques comportementales ne suggèrent pas de vulnérabilité chez les rats juvéniles. Aucune différence entre rats adultes et adolescents n'a été trouvée pour l'habituation et la préférence pour la nouveauté, deux traits prédisant l'initiation et la prise compulsive de drogue. De plus, nous avons montré que les rats adolescents attribuent moins d'intérêt à des stimuli prédisant la disponibilité d'une récompense, suggérant une vulnérabilité plus faible à la rechute induite par les stimuli associés à la prise de drogue. Une étude complémentaire des comportements compulsifs indique une absence de différence entre rats adultes et adolescents, à la fois en condition basale ou après un traitement chronique à la cocaïne. L'étude des comportements de prise de drogue ne va pas non plus dans le sens d'une vulnérabilité des rats adolescents. Bien que les rats compulsifs sélectionnés pendant la période juvénile présentent une plus grande motivation à prendre de la cocaïne, ils ne diffèrent ni dans la quantité de cocaïne consommée, ni dans la rechute induite par les stimuli environnementaux. En dépit d'une sensibilisation comportementale plus importante, les rats adolescents présentent la même préférence que les adultes face à un choix entre une drogue et une récompense alternative, suggérant une résilience à la cocaïne comparable à celle des adultes. Enfin, cette résilience pour la cocaïne n'est pas affectée par un stress chronique lors de l'adolescence. En résumé, cette étude dresse un regard objectif sur les comportements en lien avec une vulnérabilité à l'abus de drogues chez le rat juvénile, suggérant que celle-ci est hétérogène et spécifique au protocole utilisé. En dépit de certains éléments de vulnérabilité, les rats adolescents ne présentent pas d'attirance excessive pour la cocaïne, ni de prédisposition à la consommation compulsive de cette drogue. L'ensemble de ces éléments pourra constituer une base solide pour l'investigation neurobiologique du cerveau en développement, et ouvre un débat sur une possible surestimation de la vulnérabilité des rats juvéniles et de leurs homologues humains aux pathologies psychiatriques telles que l'addiction aux drogues.
Resumo:
La désaffection des citoyens à l'égard des partis politiques en contexte autoritaire semble se prolonger au niveau de la recherche. Pourtant, l'observation du phénomène partisan dans de tels contextes soulève plusieurs énigmes. A partir du cas du Maroc, un des rares pays de la région qui connaît depuis son indépendance un pluralisme partisan limité mais néanmoins complexe, nous nous sommes posés trois questions en particulier : 1) Si les partis politiques suscitent tant de méfiance en contexte autoritaire, qu'est-ce qui caractérise ceux qui s'engagent en leur sein ? 2) Comment en vient-on à s'y engager ? 3) Selon quels processus individuels, organisationnels, collectifs les carrières militantes partisanes se transforment-elles dans un régime autoritaire ? Pour saisir, d'une part, les caractéristiques et les lignes de partage qui structurent l'espace partisan marocain en termes de valeurs, de sociographie, de socialisations, de bassins de recrutement, d'autre part, les intrications entre trajectoires individuelles, organisationnelles et collectives, nous avons recouru en parallèle à des méthodes ethnographiques et à la constitution d'une base de données sur 4127 congressistes nationaux de dix organisations politiques marocaines, sondées entre 2008 et 2012. La sélection des organisations politiques a reposé sur des critères historiques et idéologiques, sur des dynamiques de crise, de fragmentation ou d'unification, tout en étant contrainte par les aléas du calendrier de l'organisation des congrès nationaux et des événements de 2011. L'échantillon comporte des partis « administratifs », des partis de gouvernement, d'opposition parlementaire, d'opposition non parlementaire ; avec une diversité d'orientations : nationaliste, berbériste, islamiste, de gauche gouvernementale, de gauche radicale, d'extrême-gauche. En outre, pour interroger les spécificités du fait partisan au regard de ses marges, nous avons intégré dans notre échantillon une organisation altermondialiste promouvant « la politique autrement » et observé les mobilisations de 2011 et de 2012. La concrétisation de cette recherche a été possible grâce à plusieurs contributions : - Les congressistes et nos « alliés » au sein des organisations enquêtées - Université de Lausanne : subsides de démarrage, avant l'obtention du financement du FNRS - M-F. Oliva : gestion du fonds - M. Naoui : traduction vers l'arabe de la première version du questionnaire - l'équipe des enquêteurs constituée notamment par des doctorant.e.s du CM2S (Casablanca) et de l'Université de Mohammedia - H. Rabah: gestion logistique des enquêtes - M. Jeghllaly : participation à la collecte des données, co-responsabilité des enquêtes menées dans deux congrès, traduction et codage des réponses aux questions ouvertes et semi-ouvertes - V. Monney, G. Patthey : gestion administrative et constitution de la base de donnés au début du projet - Y. Boughaba, P. Diaz, F. Friedli, A. Lutz, M. Mouton, S. Ridet-de-Beausacq : saisie des données - N. Khattabi et K. Taifouri : saisie des réponses en arabe - P. Blanchard : stratégie méthodologique, formation méthodologique de l'équipe suisse, supervision de la saisie et du codage, conception et réalisation de la base de données et des documents de codage, traitements statistiques multivariés et séquentiels - J. P. Müller : formation méthodologique complémentaire de la requérante - A. Bennani, M. Catusse, J.G. Contamin, O. Fillieule, F. Haegel, F. Johshua, D. Ksikes, M. Offerlé, F. Passy : soutiens et conseils précieux à un moment ou à un autre de l'enquête.
Resumo:
Une mauvaise hygiène des mains peut représenter une perte économique importante pour les industries alimentaires ou les industries pharmaceutiques et constitue un gros problème de santé publique dans les établissements de soins. En effet, le risque de transmission manuportée de pathogènes d'un patient à l'autre via le personnel soignant est un problème récurrent dans tous les hôpitaux. C'est pourquoi, une hygiène irréprochable des mains du personnel soignant est une composante fondamentale de lutte contre les infections nosocomiales. En comparaison avec les autres techniques de séchage des mains, l'utilisation d'une serviette en papier à usage unique semble être la méthode la plus efficace pour éliminer les bactéries. En effet, les autres méthodes de séchage, utilisant des appareils à air chaud ou froid, peuvent générer un air contaminé ou remettre en suspension les germes restés sur la peau, facilitant ainsi leur dispersion et leur inhalation. C'est pourquoi, l'OMS a émis des recommandations déconseillant les sèche-mains électriques en milieu hospitalier au profit des serviettes en papiers. Cependant, ces serviettes à usage unique ne sont pas stériles et peuvent elles-mêmes déposer des germes, généralement non pathogènes, sur les mains lors du séchage. Le but du premier article analysé est d'évaluer le niveau de contamination de ces serviettes, ainsi que la possibilité de dépôt de ces bactéries présentes sur les serviettes, sur les mains. À côté du risque de propagation de pathogènes par contact direct, la contamination microbiologique par voie aérienne via les aérosols existe aussi. Pour éviter d'être contaminé par des personnes excrétrices de micro-organismes transmissibles par aérosols (tuberculose, grippe, grippe aviaire SRAS...), il faut porter des protections respiratoires de type FFP2 (1) (norme européenne équivalente à la norme anglosaxonne N95). Ces protections respiratoires ou masques filtrants (en formes de bec de canard) peuvent être portées théoriquement pendant 4 heures. Le but de l'étude du second article est d'évaluer le risque de remise en suspension dans l'air de particules virales présentes sur la face extérieure d'un masque de protection respiratoire lors de simulation d'épisodes de toux provenant du porteur de cette protection.
Resumo:
Les systèmes d'assistance ventriculaire sont apparus durant la dernière décade comme une approche thérapeutique efficace du traitement de l'insuffisance cardiaque terminale, en particulier dans le contexte de manque de donneurs d'organes. Néanmoins, et ceci malgré les progrès techniques majeurs, les taux de complications restent élevés et sont en partie liés à la configuration géométrique, en particulier le site d'implantation de la cannule de sortie à l'aorte thoracique. Bien que l'anastomose à l'aorte descendante permette une chirurgie moins invasive, les bénéfices de cette technique sont toujours controversés, comparée à la méthode standard de l'aorte ascendante, en raison du risque thrombo-embolique possiblement augmenté et des modifications hémodynamiques induites au niveau de l'arc aortique. Dans ce travail, nous comparons in silico en terme de débit et pression les deux possibilités anastomotiques. Nous développons un réseau de modèles mathématiques unidimensionnels, et l'appliquons à diverses situations cliniques, pour différents stades d'insuffisance cardiaque et de vitesses de rotation de la machine. Les données initiales sont obtenues grâce à un modèle OD (c'est-à-dire qui dépend uniquement du temps mais pas de l'espace) du système cardiovasculaire comprenant une assistance circulatoire, validé avec des données cliniques. Les simulations réalisées montrent que les deux méthodes sont similaires, en terme de débit et courbes de pression, ceci pour tous les cas cliniques étudiés. Ces résultats numériques soutiennent la possibilité d'utiliser la technique d'anastomose à l'aorte thoracique descendante, permettant une chirurgie moins invasive. Sur un plan plus fondamental, le système cardiovasculaire peut être simulé par le biais de multiples modèles de niveau de complexité différents, au prix d'un coût computationnel toujours plus élevé. Nous évaluons les avantages de modèles géométriques à plusieurs échelles (uni- et tridimensionnelle) avec données provenant de patients, comparés à des modèles simplifiés. Les résultats montrent que ces modèles de dimensions hétérogènes apportent un bénéfice important en terme de ressources de calcul, tout en conservant une précision acceptable. En conclusion, ces résultats encourageant montrent la relevance des études numériques dans le domaine médical, tant sur le plan fondamental et la compréhension des mécanismes physiopathologiques, que sur le plan applicatif et le développement de nouvelles thérapeutiques.