999 resultados para modèle de choix a posteriori


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus du syndrome reproducteur et respiratoire porcin (VSRRP) est un pathogène d’importance dans l’industrie porcine et est responsable d’importantes pertes économiques. Il n’existe pas d’antiviral efficace contre celui-ci. Il a récemment été mis en évidence que le surnageant de culture d’Actinobacillus pleuropneumoniae, l’agent étiologique de la pleuropneumonie porcine, possédait une activité antivirale in vitro contre le VSRRP dans la lignée cellulaire SJPL. Les objectifs de mon projet sont (i) d’étudier les mécanismes cellulaires menant à l’activité antivirale causée par le surnageant de culture d’A. pleuropneumoniae, et (ii) de caractériser les molécules actives présentes dans le surnageant de culture d’A. pleuropneumoniae. Dans un premier temps, des analyses de protéome ont été effectuées et ont permis d’observer que le surnageant de culture modulait la régulation du cycle cellulaire. Dans le but d’analyser le cycle cellulaire des cellules SJPL, la cytométrie en flux a été utilisée et a permis de démontrer que le surnageant de culture induisait un arrêt du cycle cellulaire en phase G2/M. Deux inhibiteurs de la phase G2/M ont alors été utilisé. Il s'est avéré que ces inhibiteurs avaient la capacité d’inhiber le VSRRP dans les cellules SJPL. Enfin, la spectrométrie de masse a été utilisée dans le but de caractériser les molécules actives présentes dans le surnageant de culture d’A. pleuropneumoniae et d’identifier deux molécules. Ce projet a permis de démontrer pour la première fois qu’A. pleuropneumoniae est capable de perturber le cycle cellulaire et que ce dernier était un élément important dans l’effet antiviral contre le VSRRP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’étude présentée dans ce mémoire concerne ce qui amène les jeunes adultes (18-25 ans) à afficher certains éléments et pas d’autres, sur Facebook, en relation avec leur conception personnelle de la vie privée. J’aborde ce processus en mobilisant les notions de présentation de soi, de relations en public et, plus particulièrement, de territoires du moi élaborées par le sociologue Erving Goffman (1973). Les territoires du moi sont ici perçus comme ce qui appartient à l’individu de manière privée et qu’il souhaite protéger. Ces notions de la pensée de Goffman sont pour moi interdépendantes puisque les territoires du moi d’une personne sont influencés à la fois par le rôle que la personne tient ainsi que par les normes et les règles encadrant l'interaction. Cette étude a été réalisée auprès de huit jeunes adultes âgés entre 18 et 25 ans. Une entrevue individuelle a été faite avec chacun d’entre eux. Lors de celle-ci, les participants avaient à présenter leur compte Facebook. Je les invitais, par exemple, à me raconter ce qui les motivait à afficher certaines choses, qui sont les personnes qui peuvent voir ces choses et, à l’inverse, ce qui n’a pas sa place sur la page Facebook et qui sont les personnes qui ne peuvent pas voir certaines publications. Suite à ce terrain, les analyses mettent en lumière sept dimensions s’inscrivant dans la pensée de Goffman qui dessinent la protection de ce que l’on pourrait nommer la vie privée. Il y a Se voir à travers le regard de l’autre et s’en inquiéter, Projeter une image de soi positive, Les amis Facebook : jamais nous n’avons eu autant d’amis, Flirt, relation de couple et cœur brisé : les relations amoureuses et Facebook, Avoir plusieurs rôles sur une même plateforme : la famille n’a souvent pas sa place, Gérer les paramètres de Facebook n’est pas si simple et Évolution de l’usage de Facebook : une question d’âge et un apprentissage. La plupart d’entre elles ont, pour ligne directrice, le regard de l’autre puisque l’inquiétude vis-à-vis celui-ci vient très souvent nuancer le choix de publications des usagés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La réaction du greffon contre l’hôte (GvHD) est une complication majeure de la transplantation de cellules souches hématopoïétiques (HSCT). Les traitements de prophylaxie contre le développement de la GvHD reposent essentiellement sur l’utilisation d’agents immunosuppresseurs, ce qui contribue à ralentir la reconstitution immunitaire post-greffe et à prolonger la durée de l’état immunosupprimé des patients. Le développement de prophylaxie pour la GvHD à base d’agents immunomodulateurs est ainsi privilégié. À l’aide d’un modèle murin xénogénique chez les souris NOD/scid-IL2rγ-/- (NSG), on a étudié le potentiel immunomodulateur des immunoglobulines intraveineuses (IVIG) dans la prévention de la GvHD, ainsi que leurs effets sur la qualité et la cinétique de la reconstitution immunitaire. On a déterminé qu’un traitement hebdomadaire d’IVIG peut effectivement réduire l’incidence de la GvHD, ainsi que la mortalité qui y est reliée, avec une efficacité similaire à celle obtenue avec la cyclosporine A, un immunosuppresseur couramment utilisé dans la prophylaxie de la GvHD. Par ailleurs, on a déterminé que le mécanisme d’action des IVIG dans la réduction de la GvHD est distinct de celui des immunosuppresseurs. De plus, on a démontré que les IVIG induisent l’expansion et l’activation des cellules NK présentes au sein du greffon, lesquelles sont nécessaires pour l’obtention de l’effet protecteur des IVIG contre le développement de la GvHD, et sont dépendantes de la présence de lymphocytes T activés. Grâce à un modèle murin humanisé, on a également démontré que le traitement hebdomadaire d’IVIG induit un délai transitoire de la reconstitution humorale, ce qui n’affecte toutefois pas la qualité globale de la reconstitution immunitaire. Ces résultats mettent cependant en doute la pertinence de l’utilisation des IVIG dans les protocoles cliniques de prophylaxie de la GvHD, puisque les immunosuppresseurs seront toujours utilisés, et qu’on a démontré que les IVIG ont besoin de lymphocytes T activés afin de prévenir efficacement le développement de la GvHD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe dedecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour des raisons de limitation, cette thèse analyse le thème de la réconciliation à partir des pratiques traditionnelles des Baluba du Katanga; elle concerne et s'applique également aux autres ethnies bantu en Afrique Centrale où ces pratiques sont similaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le contexte du DESS en administration de l’éducation, le portfolio est un outil d’apprentissage qui amène l’étudiant à vivre un processus réflexif supervisé et à organiser une collection de productions significatives s’accumulant progressivement à l’intérieur du déroulement des cours. Le guide pédagogique explique les choix qui ont donné lieu au Portfolio pour les étudiants. Le portfolio suppose une réflexion en deux temps, le premier en a priori et portant sur le profil de sortie, le glossaire, le guide de choix de cours et le choix des compétences à développer par l’étudiant selon les cours et le second, a posteriori, et portant essentiellement sur l’écart existant entre les intentions d’apprentissage exprimées au départ et le niveau atteint à la fin du programme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les simulations et figures ont été réalisées avec le logiciel R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le traumatisme crânien léger (TCL) est l'un des troubles neurologiques les plus courants affectant la santé publique. Aussi, les troubles du sommeil sont fréquents chez les patients atteints de TCL. Les études chez les rongeurs montrent que certains marqueurs de plasticité synaptique diminuent après le TCL, ce qui pourrait nuire à la plasticité du cerveau. Nous suggérons que la perte de sommeil intensifie l'effet négatif de TCL, qui peut refléter les changements des marqueurs de plasticité synaptique ou des changements des voies physiologiques qui régulent le sommeil. En utilisant un modèle de traumatisme crânien sur crâne fermé (closed head injury), nous avons étudié la relation bidirectionnelle entre le TCL et le sommeil en évaluant les effets de TCL sur l’activité électrique du cerveau par électroencéphalographie (EEG), et ceux de la privation de sommeil (PS) sur l'expression génique post-TCL. Premièrement, l'activité EEG a été enregistrée pour voir si l'architecture du sommeil est altérée suite au TCL. Nous avons ensuite voulu tester si la PS suite TCL induit des changements dans l'expression des gènes : Arc, Homer1a, Hif1a, Bdnf, Fos et éphrines, qui ont été liés à la plasticité synaptique et à la régulation du sommeil. Nous avons également étudié l'effet de la PS post-TCL sur le génome complet dans les régions cibles (cortex et l'hippocampe). Les principaux résultats obtenus dans cette étude confirment que TCL modifie de manière significative l'activité spectrale pendant l'éveil, le sommeil Rapid Eye Movement (REM) et le sommeil non-REM dans le deuxième 24 heures post-TCL. Fait intéressant, la capacité de maintenir de longues périodes d'éveil a été altérée immédiatement après TCL (première 24h post-TCL). La dynamique de l'activité delta pendant l'éveil a été modifié par le TCL. Parallèlement à ces modifications, des changements dans l'expression des gènes ont été observés dans le cortex et l'hippocampe. Seulement Arc et EfnA3 ont montré une interaction TCL / PS et ce dans l’hippocampe, tandis que l'expression de tous les autres gènes semblait être affectée par la PS ou TCL indépendamment. Nos résultats montrent pour la première fois que le TCL induit l'expression de deux chimiokines (Ccl3 et Cxcl5) à la fois dans le cortex cérébral et l'hippocampe 2,5 jours post-TCL. Également, nous avons observé que le TCL induit une diminution de l'expression de Lgals3 et S100A8 dans le cortex, et une augmentation d’Olig2 dans l'hippocampe. Les résultats concernant les effets de la PS sur le génome complet du cortex et de l'hippocampe montrent des changements significatifs dans les gènes impliqués dans diverses fonctions physiologiques, telles que les rythmes circadiens, la réponse inflammatoire, ainsi que de l'activation des cellules gliales. En général, nos résultats précisent les changements dans la qualité de l’éveil ainsi que dans l'expression de divers gènes après TCL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En l’espace d’une décennie, Montréal s’est durablement transformée. Du milieu des années 1950, où elle représente une ville développée certes, mais dépourvue d'autoroutes, à 1967, année de l’Exposition universelle, la métropole du Québec confirme son choix du tout-à-l’automobile. Le développement autoroutier qu’elle réalise à cette époque doit alors être en mesure de répondre aux besoins de la société à court comme à long terme. Ce réseau perdure toujours de nos jours. Nous souhaitons décomposer la trame de cette période mouvementée afin de comprendre comment Montréal a pu adopter cette orientation aussi rapidement. Il est question d’aborder les éléments ayant permis de centraliser le thème de la circulation à Montréal. La réponse des autorités et la volonté de planifier la ville à long terme nous conduisent ensuite à une réalisation accélérée d’un réseau autoroutier métropolitain d’envergure dont l’échangeur Turcot représente l’aboutissement en 1967. Cette étude permet de mieux examiner l’histoire de ce projet autoroutier majeur qui a constitué un des symboles forts de la modernisation de Montréal et du Québec. L’échangeur Turcot construit dans les années 1960 est le fruit d’une conjoncture particulière, correspondant à des besoins et des attentes tout autre que ceux qui prévalent actuellement. Nous concluons ainsi en nous questionnant sur la construction actuelle du nouvel échangeur Turcot, et en affirmant qu’elle ne correspond peut-être pas aux besoins d’une métropole du XXIe siècle.