325 resultados para Modèle D-N


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est connu que ceux qui ne s’informent pas sur leur passé seront toujours condamnés à répéter les mêmes erreurs et pour déterminer où aller il faut d’abord savoir d’où on vient . La thèse se penche sur l’analyse de plus de deux siècles d’histoire de l’appareil judiciaire malgache à la lumière du concept d’indépendance de la magistrature. L’auteur porte une analyse rétrospective sur une assez longue période qui s’étend de la fin du XVIIIème siècle à nos jours au cours de laquelle il essaie de comprendre l’ensemble des situations ayant prévalu dans le pays témoin, avant, pendant et après la colonisation française. Cette thèse tente d’apporter des argumentaires nouveaux et une méthodologie d’approche nouvelle dans l’analyse de l’appareil judiciaire d’un pays anciennement colonisé. Il s’agit de mettre de côté certaines idées reçues sur les situations des systèmes juridiques des pays anciennement colonisés, notamment malgache et africains. L’étude remet en cause quelques préjugés d’antan qui marquent encore les esprits relativement aux situations précoloniales, à l’arrivée des modèles juridiques occidentaux et plus particulièrement au concept d’indépendance de la magistrature et sa consistance actuelle dans les anciennes colonies, à l’instar de la Grande Île. A travers l'étude du cas particulier de Madagascar, la thèse apporte des réponses à plusieurs questions suscitées par l’acculturation du système juridique des anciennes colonies à partir de leur contact avec les modèles juridiques occidentaux. La question spécifique de recherche consiste à déterminer si le concept d’indépendance de la magistrature est déjà entré dans le système juridique des pays anciennement colonisés comme Madagascar. Pour l’auteur, le concept d’indépendance de la magistrature tel que compris en Occident n’a jamais fait son véritable entrée à Madagascar. Le cadre théorique adopté pour la vérification de l’hypothèse combine le positivisme juridique avec les approches anthropologique et sociologique et se distingue des recherches presque exclusivement positivistes antérieures. Dans la première partie, l’auteur propose le cadre théorique de recherche et rapporte les modes de règlements des conflits à l’époque précoloniale. L’analyse anthropologique de la période a démontré que le concept d’indépendance de la magistrature fut inconnu des traditions judiciaires précoloniales même si une certaine influence occidentale imprégnait le processus de métissage spontanée diligenté par les souverains successifs. Dans la seconde partie, l’auteur livre une analyse de la période coloniale et postcoloniale jusqu’à l’époque contemporaine. Pour la période coloniale, l’ouvrage relate, d’une part, les multiples mesures prises durant les années coloniales, qui éloignèrent le modèle juridique colonial implanté à Madagascar du modèle juridique français original de la métropole. D’autre part, il mesure les impacts de l’instauration du modèle colonial sur les traditions juridiques malgaches précoloniales. Contrairement aux idées reçues, le modèle juridique français et tous ses concepts clés, notamment le concept de séparation des pouvoirs et celui d’indépendance de la magistrature ne furent pas transmis à Madagascar par le fait de la conquête. Ensuite, il a survolé la magistrature des trois républiques successives depuis l’indépendance acquise en 1960. En premier lieu, par une analyse résolument positiviste l’auteur analyse les imperfections initiales des choix et des mesures prises lors de la mise en place du nouveau système juridique de la jeune république durant les premières années de l’indépendance et dont la magistrature malgache est encore tributaire aujourd’hui. En second lieu, par une démarche à la fois positiviste et sociologique, il démontre que les valeurs du concept d’indépendance de la magistrature, reconnues par le système politique et timidement repris par le système juridique, n’ont pas réussi jusqu’ici à pénétrer le cœur de ce dernier

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire est consacré à la question de la réception spectatorielle des films en IMAX 3-D. Dans un premier temps, nous retracerons l’histoire du cinéma stéréoscopique, des origines jusqu’à l’inauguration de l’IMAX 3-D en 1986. Nous verrons que le modèle de l’attraction cinématographique s’est maintenu de tout temps dans l’économie de ce format, ce qui a contribué aux échecs de son institutionnalisation dans les années 50 et 80. En un deuxième temps, nous nous intéresserons à l’« expérience IMAX », afin de cerner la position qui y est attribuée au spectateur. Nous montrerons que les films IMAX misent à la fois sur leur potentiel immersif et sur la mise en évidence du dispositif. L’état d’immersion du spectateur entre donc en dialogue avec la réflexivité du médium. Par l’analyse des films Sea Monsters : A Prehistoric Adventure et Haunted Castle, il sera démontré que cette tension entre immersion et réflexivité sert un discours de glorification de l’IMAX. Aussi, nous interrogeons les liens entre la structure ponctuelle imposée par le modèle attractionnel et le fil narratif immanquablement mis en place dans les films IMAX.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette étude est d’adopter une intervention systémique visant à faciliter la communication entre les infirmières1 et les familles2 dans un contexte de soins intensifs (SI) en traumatologie. Cette recherche prend en compte la réalité et les besoins du milieu à l’étude grâce au devis participatif retenu. Le cadre de référence est composé de l’approche systémique familiale de Wright et Leahey (2005) ainsi que de la théorie du caring de Jean Watson (1979). La collecte des données a été inspirée du parcours de recherche en spirale de Lehoux, Levy et Rodrigue (1995). Cinq entrevues ont été menées auprès de membres de familles ainsi que trois groupes de discussion (focus groups) auprès d’infirmières. L’analyse des données a été effectuée selon le Modèle de Huberman et Miles (2003) qui préconise une démarche analytique continue et interactive. Les résultats obtenus révèlent un changement de pratique selon dix interventions systémiques infirmières spécifiques permettant de faciliter la communication avec les familles aux soins intensifs en traumatologie et soulignent l’importance d’agir sur le plan du contexte, de la relation et du contenu liés au processus de communication. De plus, ils permettent de démontrer un réel changement de pratique dans le milieu retenu pour l’étude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce travail, nous explorons la faisabilité de doter les machines de la capacité de prédire, dans un contexte d'interaction homme-machine (IHM), l'émotion d'un utilisateur, ainsi que son intensité, de manière instantanée pour une grande variété de situations. Plus spécifiquement, une application a été développée, appelée machine émotionnelle, capable de «comprendre» la signification d'une situation en se basant sur le modèle théorique d'évaluation de l'émotion Ortony, Clore et Collins (OCC). Cette machine est apte, également, à prédire les réactions émotionnelles des utilisateurs, en combinant des versions améliorées des k plus proches voisins et des réseaux de neurones. Une procédure empirique a été réalisée pour l'acquisition des données. Ces dernières ont fourni une connaissance consistante aux algorithmes d'apprentissage choisis et ont permis de tester la performance de la machine. Les résultats obtenus montrent que la machine émotionnelle proposée est capable de produire de bonnes prédictions. Une telle réalisation pourrait encourager son utilisation future dans des domaines exploitant la reconnaissance automatique de l'émotion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Une mort cellulaire par apoptose impliquant un processus inflammatoire est observée dans le système limbique, suite à un infarctus du myocarde. Les oméga-3 et ses métabolites, en plus de leurs propriétés bénéfiques pour le système cardiovasculaire, réduisent l’inflammation, contrairement aux oméga-6 qui sont plus pro-inflammatoires. Comme le métabolisme de ces deux acides gras essentiels impliquent les mêmes enzymes, le ratio alimentaire oméga-3/6 aurait donc des impacts importants sur l'état inflammatoire et ainsi indirectement sur l'apoptose. Conséquemment, cette étude a pour but d'évaluer l'effet de différents ratios oméga-3/6 sur la taille de l’infarctus, l’inflammation et l’apoptose dans le système limbique suite à un infarctus du myocarde. Des rats Sprague-Dawley ont été aléatoirement distribués dans trois groupes contenant des ratios 1:1, 1:5 et 5:1 oméga-3/6. Ils ont été nourris pendant 2 semaines, suivie d’une occlusion de l’artère coronaire gauche descendante pendant 40 minutes et d’une période de reperfusion (15 min et 24 h). De hauts ratios d’oméga-3 (5:1 et 1:1) diminuent significativement la taille de l’infarctus de 32 % et augmentent l’activité d’Akt, impliquée dans la voie cardioprotectrice RISK, comparativement au ratio 1:5. Ils diminuent aussi la concentration plasmatique de TNF-D. Dans le système limbique, l’activité de la caspase-3 est augmentée dans la région CA1, après 15 min, et dans les régions du CA1 et du gyrus dentelé (Gd), après 24 h, avec la diète 1:5 en comparaison aux diètes 1:1 et 5:1. L’activité enzymatique de la caspase-8 est augmentée dans le Gd, alors que dans le CA1, il y a une activité plus importante de la caspase-9 aux temps de reperfusion étudiés. Conclusion: Les diètes élevées en oméga-3/oméga-6 réduisent la taille de l'infarctus, l’inflammation et diminuent l’apoptose dans le système limbique après un infarctus du myocarde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans une société où il est plutôt normal de passer beaucoup de temps assis, nous étudions, à partir de l’aménagement, l’intégration de l’activité physique de loisirs et de transport dans les activités et les lieux du quotidien. Cette intégration est relativement peu étudiée dans sa globalité car elle nécessite de prendre en considération les facteurs de l’environnement physique et social, les deux types d’activité physique, les différents lieux fréquentés quotidiennement et elle pose en ce sens de nombreux défis d’ordre méthodologique. Cette vue globale du phénomène s’impose car de plus en plus de recherches font état d’associations entre des dimensions spécifiques de l’aménagement et des comportements précis; occasionnellement, ces résultats se contredisent. Pour comprendre le phénomène, nous sommes partis du modèle écoenvironnemental et l’avons adapté pour mieux représenter la mobilité de la population. Nous avons conséquemment choisi une unité d’analyse comprenant le territoire résidentiel, le territoire du milieu de travail et le trajet entre les deux. Ainsi, en utilisant plusieurs sources de données, nous avons caractérisé des milieux comme étant contraignants ou facilitants pour l’activité physique et les personnes y résidant comme étant suffisamment actives ou pas. Nous avons ensuite fait ressortir les éléments importants des entrevues en fonction de cet appariement. Parmi les thèmes explorés en entrevue, nommons les caractéristiques de l’environnement physique qui ont de l’importance, l’impact de l’environnement social au travail et au domicile, la logique sous-jacente aux courses, etc. Les principaux résultats de cette recherche démontrent que les usagers du train de banlieue font suffisamment d’activité physique en dépit qu’ils résident en banlieue. En ce sens, notre échantillon est plus actif que la moyenne québécoise. Nous remarquons que l’influence de l’environnement est manifeste mais sous le principe des vases communicants, c'est-à-dire que le pôle résidentiel et le pôle des emplois ont tous deux des contributions qui s’avèrent très souvent complémentaires. L’influence de l’environnement social passe par le rôle signifiant des proches plutôt que par leur proximité géographique tandis que l’aménagement a une énorme contribution à rendre les parcours agréables et, de ce fait, donner une plus-value au temps requis pour les emprunter. La vocation des milieux, le type de marche et le sens qu’y voient les usagers doivent guider le design; il n’y a donc pas qu’une formule ou une seule prescription pour augmenter le potentiel piétonnier et/ou cyclable des milieux. Cela dit, les outils de caractérisation doivent être revus. En conclusion des pistes de développements futurs à cette recherche sont proposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans le domaine de l’architecture du paysage et du design urbain. La recherche se construit autour d’un questionnement sur le sens pouvant être attribué au parc La Fontaine par ses usagers en tant que cadre de vie urbain montréalais. Ce parc est un lieu emblématique de la ville par le caractère historique de son aménagement. Il est aussi un lieu populaire par sa situation géographique centrale au sein de l’arrondissement du Plateau-Mont-Royal. Par l’analyse de ce parc, nous cherchons à porter un regard sur la manière dont se construit l’expérience d’un parc urbain dans les particularités de son aménagement, de son contexte social et culturel. Notre étude semble pertinente dans la mesure où cet espace n’a jamais été abordé selon l’analyse de l’expérience paysagère. Notre réflexion se construit à partir d’un modèle socioculturel soutenu par une revue de littérature en architecture de paysage. Les travaux menés à la Chaire en paysage et environnement de l’Université de Montréal ont particulièrement été sollicités. Ce modèle considère le paysage comme une qualification sociale et culturelle d’un territoire. Il engage l’analyse vers des perspectives pluridimensionnelle, expérientielle et polysensorielle, tout en considérant le caractère formel (attributs physiques) du paysage. Nous avons également joint à ce cadre théorique les recherches menées en design et en anthropologie des sens. Ces axes de recherche éclairent les notions de l’expérience esthétique et sensorielle particulièrement en regard de la compréhension du vécu d’un espace ordinaire et quotidien. Selon ce cadre conceptuel, notre recherche fait appel à une approche compréhensive. Ainsi, nous abordons l’expérience du parc par un modèle d’analyse mettant l’emphase sur les usages, l’interprétation et la représentation de l’aménagement du parc La Fontaine. La méthodologie s’appuie sur une démarche de recherche qualitative. Elle se fonde sur une observation non participante des usagers du parc, sur des entretiens semi-dirigés et sur une étude physico-spatiale du lieu. Ce mémoire a pour finalité de conduire une première lecture du parc La Fontaine en abordant les dimensions composant le vécu de ses usagers. Nous espérons pouvoir contribuer à notre échelle à l’avancée des connaissances de cet espace du point de vue expérientiel et de la perspective paysagère sur la compréhension des parcs urbains.