1000 resultados para Modèle probabiliste


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans une turbine hydraulique, la rotation des aubes dans l’eau crée une zone de basse pression, amenant l’eau à passer de l’état liquide à l’état gazeux. Ce phénomène de changement de phase est appelé cavitation et est similaire à l’ébullition. Lorsque les cavités de vapeur formées implosent près des parois, il en résulte une érosion sévère des matériaux, accélérant de façon importante la dégradation de la turbine. Un système de détection de l’érosion de cavitation à l’aide de mesures vibratoires, employable sur les turbines en opération, a donc été installé sur quatre groupes turbine-alternateur d’une centrale et permet d’estimer précisément le taux d’érosion en kg/ 10 000 h. Le présent projet vise à répondre à deux objectifs principaux. Premièrement, étudier le comportement de la cavitation sur un groupe turbine-alternateur cible et construire un modèle statistique, dans le but de prédire la variable cavitation en fonction des variables opératoires (tels l’ouverture de vannage, le débit, les niveaux amont et aval, etc.). Deuxièmement, élaborer une méthodologie permettant la reproductibilité de l’étude à d’autres sites. Une étude rétrospective sera effectuée et on se concentrera sur les données disponibles depuis la mise à jour du système en 2010. Des résultats préliminaires ont mis en évidence l’hétérogénéité du comportement de cavitation ainsi que des changements entre la relation entre la cavitation et diverses variables opératoires. Nous nous proposons de développer un modèle probabiliste adapté, en utilisant notamment le regroupement hiérarchique et des modèles de régression linéaire multiple.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Depuis le Renouveau de l’enseignement collégial (1993), les programmes d’études sont définis selon l’approche par compétences. Depuis l’implantation de cette approche, les enseignantes et les enseignants ont à faire de nombreux choix quant aux contenus qui seront enseignés. Cette approche a aussi des implications importantes sur les pratiques pédagogiques des enseignantes et des enseignants des programmes techniques et préuniversitaires puisque celles-ci devraient être choisies de façon à favoriser le développement de compétences. Dans le cadre de cet essai, nous avons tenté de décrire les pratiques d'enseignantes et d'enseignants en chimie relativement aux décisions prises pour le choix des savoirs à enseigner et des stratégies pédagogiques pour l’enseignement et l’apprentissage du modèle probabiliste de l’atome dans le cadre du cours « chimie générale » formulé par compétence du programme Sciences de la nature. Nous avons procédé à des entrevues semi-dirigées avec deux enseignantes et un enseignant qui donnent ce cours. Nous avons aussi procédé à l’analyse des documents de planification remis par ces personnes participantes. L’analyse a montré que les pratiques de planification des personnes rencontrées pour le choix des contenus à enseigner et des stratégies pédagogiques semblent changer avec l’expérience. Alors qu’en début de carrière, les personnes interrogées semblaient se fier davantage à des sources internes au programme d’études pour les guider dans le choix des contenus à enseigner lors de leur planification, elles se posent beaucoup plus de questions relativement à la pertinence et à l’entendue des contenus à enseigner pour faciliter les apprentissages lors de la carrière plus avancée. L’analyse a aussi montré qu’en début de carrière, la planification pédagogique des enseignantes et de l’enseignant rencontrés était surtout centrée sur l’appropriation et le traitement des contenus et que, conséquemment, l’exposé magistral était la principale formule pédagogique prévue. Enfin, on a pu voir que la préoccupation pour les étudiants, quasi absente en début de carrière, devient un facteur déterminant dans le choix des stratégies pédagogiques en carrière plus avancée, et ce, pour toutes les personnes participantes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: O relatório anual de 2001 da Organização Mundial de Saúde (OMS), anunciou o interesse social dos problemas crescentes em matéria de saúde mental e relativo à necessidade urgente de uma extensão, como também, para uma melhor organização da oferta de tratamento. Sob proposta da Bélgica, esta observação foi traduzida em uma resolução « Mental health :responding to the call for action » (déclaração de intenção do 18 de maio de 2002). Nós notamos que certos países, como os Estados Unidos ou a Grã Bretanha transformam sistematicamente o tratamento residencial em um tratamento mais dirigido para a comunidade. Eles também se concentram na descoberta prematura dos problemas psiquiátricos. Este fenômeno de désinstitutionalisação obteve resultados concretos e traz um ganho certo, tanto para os atores do campo da saúde mental, como também para os candidatos a um tratamento. O tratamento das pessoas dentro do seu meio de vida é muito claramente reconhecido. As evoluções que marcaram os tratamentos em saúde mental na Bélgica durante estes utimos 40 anos mostram que vários paços importantes já foram feitos. A reforma tem como objetivo converter a oferta hospitalar e montar tratamentos dirigidos para e dentro da comunidade pela criação de equipas móveis que se inscrevem no dispositivo comunitário, historicamente muito activo bem que sub-financiado. A reorganização dos sistemas de tratamento está baseada na criação de redes, para construir um dispositivo flexível e contínuo que considera as necessidades dos pacientes. Esta reforma é, ao mesmo tempo, ambiciosa e complexa,. É uma visão nova, uma mudança de cultura, não só, para todos os atores da saúde mental, mas também para os pacientes e suas famílias. A reforma está baseada numa visão global e integrada que associa no mesmo movimento todas as autoridades competentes relativamente a saúde que elas sejam federais, regionais ou comunitárias.-----------ABSTRACT: The World Health Organization’s (WHO) annual report of 2001 identified a social interest for the increasing problems related to mental health and the urgent need of an extension and a better organization of mental health care. On a proposal of Belgium this statement was transformed into a resolution « Mental health: responding to the call for action» (Declaration of Intent, May 18th, 2002). Some countries such as the USA or the UK systematically dismantled in-patient residential care in favor of more community-based care and a focus on early detection of psychiatric problems. This de -institutionalization has clearly and concretely paid off and the value of bringing mental health care to claimants and treating them in their own residence was acknowledged. In Belgium, the evolutions which have shaped mental health care in the last forty years indicate that a number of important steps are already taken. The Reform aims to convert the supply of hospital care into community-based mental health care services through the creation of mobile teams which offer services in everyday life of the user. These teams take place in the community, historically highly active howbeit underfunded. The reorganization of health care system relies upon the creation of networks in order to build a flexible and continuous device which take into account user’s needs. This Reform can be seen as both ambitious and complex. It is a completely new vision, a major cultural shift for all mental health care stakeholders, but also for users and their relatives. The Reform is based on a global and integrated approach which links I, a same movement all relevant health authorities whether they be federal, regional or community. de-institutionalization – community mental health – recovery - users and families involvement - networking.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUME : L'athérosclérose, pathologie inflammatoire artérielle chronique, est à l'origine de la plupart des maladies cardiovasculaires qui constituent l'une des premières causes de morbidité et mortalité en France. Les études observationnelles et expérimentales montrent que l'exercice physique prévient la mortalité cardiovasculaire. Cependant, les mécanismes précisant les bénéfices cliniques de l'exercice sur l'athérosclérose sont encore largement inconnus. Le but général de ce travail a donc été d'explorer, en utilisant un modèle expérimental d'athérosclérose, la souris hypercholestérolémique génétiquement dépourvue en apolipoprotéine E (apoE-/-), les mécanismes athéroprotecteurs de l'exercice. La dysfonction endothéliale, généralement associée aux facteurs de risque cardiovasculaire, serait l'une des étapes précoces majeures de l'athérogenèse. Elle est caractérisée par une diminution de la biodisponibilité en monoxyde d'azote (NO) avec la perte de ses propriétés vasculo-protectrices, ce qui favorise un climat pro-athérogène (stress oxydatif, adhésion et infiltration des cellules inflammatoires dans la paroi artérielle...) conduisant à la formation de la plaque athéromateuse. L'objectif de notre premier travail a donc été d'explorer les effets de l'exercice d'une part, sur le développement des plaques athéromateuses et d'autre part, sur la fonction endothéliale de la souris apoE-/-. Nos résultats montrent que l'exercice réduit significativement l'extension de l'athérosclérose et prévient la dysfonction endothéliale. L'explication pharmacologique montre que l'exercice stimule la fonction endothéliale via, notamment, une plus grande sensibilité des récepteurs endothéliaux muscariniques, ce qui active les événements signalétiques cellulaires récepteurs-dépendants à l'origine d'une bioactivité accrue de NO. Les complications cliniques graves de l'athérosclérose sont induites par la rupture de la plaque instable provoquant la formation d'un thrombus occlusif et l'ischémie du territoire tissulaire en aval. L'objectif de notre deuxième travail a été d'examiner l'effet de l'exercice sur la qualité/stabilité de la plaque. Nos résultats indiquent que l'exercice de longue durée stabilise la plaque en augmentant le nombre de cellules musculaires lisses et en diminuant le nombre de macrophages intra-plaques. Nos résultats montrent aussi que la phosphorylation de la eNOS (NO Synthase endothéliale) Akt-dépendante n'est pas le mécanisme moléculaire majeur à l'origine de ce bénéfice. Enfin, dans notre troisième travail, nous avons investigué l'effet de l'exercice sur le développement de la plaque vulnérable. Nos résultats montrent, chez un modèle murin de plaque instable (modèle d'hypertension rénovasculaire à rénine et angiotensine II élevés) que l'exercice prévient l'apparition de la plaque vulnérable indépendamment d'un effet hémodynamique. Ce bénéfice serait associé à une diminution de l'expression vasculaire des récepteurs AT1 de l'Angiotensine II. Nos résultats justifient l'importance de l'exercice comme outil préventif des maladies cardiovasculaires. ABSTRACT : Atherosclerosis, a chronic inflammatory disease, is one of the main causes of morbidity and mortality in France. Observational and experimental data indicate that regular physical exercise has a positive impact on cardiovascular mortality. However, the mechanisms by which exercise exerts clinical benefits on atherosclerosis are still unknown. The general aim of this work was to elucidate the anti-atherosclerotic effects of exercise, using a mouse model of atherosclerosis: the apolipoprotein E-deficient mice (apoE-/- mice). Endothelial dysfunction, generally associated with cardiovascular risk factors, has been recognized to be a major and early step in atherogenesis. Endothelial dysfunction is characterized by Nitric Oxide (NO) biodisponibility reduction with loss of NO-mediated vasculoprotective actions. This leads to vascular effects such as increased oxidative stress and increased adhesion of inflammatory cells into arterial wall thus playing a role in atherosclerotic plaque development. Therefore, one of the objective of our study was to explore the effects of exercise on atherosclerotic plaque extension and on endothelial function in apoE-/- mice. Results show that exercise significantly reduces plaque progression and prevents endothelial dysfunction. Pharmacological explanation indicates that exercise stimulates endothelial function by increasing muscarinic receptors sensitivity which in turn activates intracellular signalling receptor-dependent events leading to increased NO bioactivity. The clinical manifestations of atherosclerosis are the consequences of unstable plaque rupture with thrombus formation leading to tissue ischemia. The second aim of our work was to determine the effect of exercise on plaque stability. We demonstrate that long-term exercise stabilizes atherosclerotic plaques as shown by decreased macrophage and increased Smooth Muscle Cells plaque content. Our results also suggest that the Akt-dependent eNOS phosphorylation pathway is not the primary molecular mechanism mediating these beneficial effects. Finally, we assessed a putative beneficial effect of exercise on vulnerable plaque development. In a mouse model of Angiotensine II (Ang II)-mediated vulnerable atherosclerotic plaques, we provide fist evidence that exercise prevents atherosclerosis progression and plaque vulnerability. The beneficial effect of swimming was associated with decreased aortic Ang II AT1 receptor expression independently from any hemodynamic change. These findings suggest clinical benefit of exercise in terms of cardiovascular event protection.