16 resultados para generative and performative modeling

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Affiliation: Institut de recherche en immunologie et en cancérologie, Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude s’applique à démontrer comment la relation documentaire peut être mise à l’épreuve du pardon dans deux films mettant en scène des bourreaux. Comment est-il possible de concevoir un dispositif cinématographique éthique avec la participation d’anciens criminels ? C’est la question que se sont posée les cinéastes Avi Mograbi et Rithy Panh. L’objectif de cette recherche sera de relever comment le pardon intervient explicitement, mais aussi implicitement, dans la forme documentaire. Il s’agira de comprendre comment ces films, "Z32" et "S21 la machine de mort khmère rouge", s’élaborent socialement, politiquement et esthétiquement du tournage à la réception, afin de cerner le potentiel symbolique et performatif du pardon dans la reconstruction du lien avec autrui.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Toutes les illustrations qui ponctuent cette thèse ont été réalisées par Chantal Poirier. Elles ont été insérées dans le texte selon un ordre méticuleusement aléatoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La vie des femmes du continent africain et de leurs enfants continue d’être mise en danger lors de chaque accouchement car les risques de décès maternels et infantiles sont encore très élevés. Il est estimé chaque année à environ le quart du million le nombre de décès maternel et de près de quatre millions celui des enfants de moins de cinq ans. La comparaison de la situation sanitaire avec d’autres contextes permet de mieux cerner l’ampleur du problème : en Afrique sub-Saharienne, le risque de décès lié à la grossesse est de l’ordre de 1 pour 31, alors qu’il n’est que de 1 pour 4300 dans les pays industrialisés. Cette situation est évitable et, le plus souvent, résulte de la sous ou non-utilisation des services de santé maternelle, du manque de structures adéquates de soins ou de personnel de santé qualifié. Notre thèse cherche à comprendre la manière dont les inégalités de genre au sein du ménage et dans la communauté renforcent les inégalités quant à l’utilisation des services de santé maternelle, ainsi qu’aux relations empiriques qui lient les différents recours aux soins. Concrètement, elle vise à 1) proposer une mesure des normes de genre favorables à la violence contre les femmes et à analyser son influence sur leur prise de décision au sein du ménage, 2) analyser simultanément l’influence de ces normes et de l’autonomie des femmes sur le recours aux soins prénatals et à l’accouchement assisté et finalement, 3) cerner l’influence des soins prénatals sur le recours à l’accouchement assisté. Chacun de ces objectifs se heurte à un problème méthodologique substantiel, soit de mesure ou de biais de sélection, auxquels l’approche par modèles d’équations structurelles que nous avons adoptée permet de remédier. Les résultats de nos analyses, présentés sous forme d’articles scientifiques, s’appuient sur les données issues des Enquêtes Démographiques et de Santé (EDS) du Ghana, du Kenya, de l’Ouganda et de la Tanzanie et concernent les femmes vivant en milieu rural. Notre premier article propose une mesure des normes de genre et, plus exactement, celles liées à la violence contre les femmes en recourant à l’approche des variables latentes. Les cinq questions des EDS relatives à l’attitude des femmes sur la légitimation de la violence ont permis de saisir cette mesure au niveau contextuel. Les résultats suggèrent d’une part que cette mesure a de bons critères de validité puisque l’Alpha de Cronbach varie de 0.85 pour le Kenya à 0.94 pour le Ghana; les chi-deux sont non significatifs partout; le RMSEA est en dessous de 0.05; le CFI supérieur à 0.96 et les saturations sont pour la plupart supérieures à 0.7 dans tous les pays. D’autre part, à l’aide du modèle d’équations structurelles multiniveaux, nous avons trouvé qu’au-delà de leur propre attitude envers la violence contre les femmes, celles qui vivent dans un milieu où les normes de genres sont plus favorables à la violence ont plus de chances d’être de faible autonomie ou sans autonomie (comparativement à forte autonomie) dans l’ensemble des pays étudiés. Le second article documente l’influence des inégalités de genre, cernées au niveau contextuel par les normes favorables à la violence contre les femmes et au niveau individuel par l’autonomie de prise de décision au sein du ménage, sur la survenue des soins prénatals au cours du premier trimestre et sur les recours à au moins 4 consultations prénatales et à l’accouchement assisté. En utilisant également les modèles d’équations structurelles multiniveaux sur les mêmes données du premier article, nous constatons que chacune de ces variables dépendantes est fortement influencée par la grappe dans laquelle la femme vit. En d’autres mots, son lieu de résidence détermine le comportement de santé maternelle que l’on adopte. De même, en contrôlant pour les autres variables explicatives, nos résultats montrent que les femmes qui vivent dans un milieu où les normes de genre liées à la violence contre les femmes sont élevées ont, en moyenne, une plus grande chance de ne pas accoucher auprès d’un personnel qualifié au Ghana et en Ouganda, de ne pas débuter leurs soins prénatals dans le premier trimestre dans les mêmes pays, et de ne pas recourir à au moins quatre consultations prénatales en Tanzanie. Par contre, cette variable contextuelle n’influence pas significativement le recours aux soins de santé maternelle au Kenya. Enfin, les résultats montrent que les normes de genre favorables à la violence contre les femmes sont plus déterminantes pour comprendre le recours aux soins de santé maternelle dans les pays étudiés que l’autonomie de prise de décision de la femme. Dans le cadre du troisième et dernier article empirique de la thèse, nous nous sommes intéressés à l’importance des soins prénatals dans le processus de recours à l’accouchement assisté et à la place du contenu des soins reçus avant l’accouchement dans cette relation. Cet article met en exergue l’existence de biais d’endogénéité au Kenya et en Tanzanie, où sans sa prise en compte, l’effet des soins prénatals sur le recours à l’accouchement auprès d’un personnel qualifié serait fortement biaisé. De plus, il ressort qu’à l’exception du Ghana et dans une moindre mesure de la Tanzanie, cet effet est totalement médiatisé par le contenu des soins prénatals que les femmes reçoivent. L’article met ainsi en relief le rôle des prestataires de soins qui pour atteindre plus efficacement les populations doivent agir en tant que leaders au sein de leur communauté.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse porte sur trois textes autobiographiques qui questionnent, à travers l’élaboration d’une pensée de l’événement, les oppositions convenues entre fiction et témoignage. L’Événement (2000) d’Annie Ernaux, Le jour où je n’étais pas là (2000) d’Hélène Cixous et L’Instant de ma mort (1994) de Maurice Blanchot présentent le récit autoréférentiel d’un événement traumatique, soit un avortement clandestin pour Ernaux, la mort en bas âge d’un enfant trisomique pour Cixous et la mise en joue par un soldat nazi lors de la Seconde Guerre mondiale pour Blanchot. Ce corpus, quoique hétérogène à plusieurs égards, loge à l’enseigne d’une littérature placée sous le signe de l’aveu, de la confession et de la révélation ; cette littérature porterait au jour ce qui était jusque-là demeuré impossible à dire. Partant de la figure de la honte inscrite dans ces trois œuvres, mais aussi dans d’autres textes de ces écrivains qui permettent de déployer ce qui se trame de secret et d’événement dans le corpus principal, cette thèse a pour objectif d’analyser les déplacements et les retours d’un trauma gardé secret pendant une quarantaine d’années et qui remonte, par la voie de l’événement, à la surface de l’écriture. Sous la double impulsion de la pensée de Jacques Derrida et de l’approche psychanalytique, cette thèse s’intéresse à la question de l’événement à l’œuvre chez Ernaux, Cixous et Blanchot. Dans chacune de ces œuvres, un événement traumatique intervient comme révélateur de l’écriture et d’un rapport singulier à la pensée de l’événement, marqué soit historiquement et politiquement (Blanchot), soit intimement (Cixous et Ernaux). Par l’écriture, ces auteurs tentent en effet de rendre compte de l’authenticité de l’événement ressenti, problématisant du même coup la nature et la fonction de l’événement tant réel que psychique dans le récit de soi. L’événement est ainsi abordé dans son caractère historique, psychanalytique mais également philosophique, ontologique ; la pensée de l’événement mise à l’épreuve des textes d’Ernaux, de Cixous et de Blanchot permet d’explorer les figures de la date, de l’archive, de la mort et du deuil qui lui sont liées, en plus de donner lieu à une poétique singulière chez chacun. Enfin, la thèse traite du rapport entre l’aveu de l’événement et la langue qui, défiant l’opposition traditionnelle du constatif et du performatif, entraîne l’événement du récit, cet autre événement qui arrive en même temps que le récit de l’événement traumatique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal