22 resultados para 290207 Satellite, Space Vehicle and Missile Design
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm
Resumo:
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Dans les sphères du développement durable, des modèles d’affaires et du design de produit, certains leviers rendent le croisement de ces trois sphères de plus en plus pertinent. Au croisement de ces trois sphères se trouve une opportunité de comprendre les relations existantes entre le design de produit et les modèles d’affaires afin d’aider les décideurs à développer des solutions davantage durables. L’approche méthodologique de cette recherche utilise un système complexe et est basée sur un paradigme pragmatique. En vue de répondre à la question « Dans quelle mesure des modèles d’affaires et le design de produit sont liés dans un contexte de développement durable? », cette recherche a soigneusement analysé trois cas: Better Place, une compagnie californienne ayant développé une infrastructure permettant le chargement des voitures électriques; Interface Inc., un manufacturier mondial de tuiles de tapis commerciales établi à Atlanta; et Métacycle, un concept d’entreprise développé par une équipe de chercheurs en design à Montréal. Chaque cas a été analysé en corrélant des aspects du design de produit à des éléments de leur modèle d’affaires. Les résultats montrent que dans le contexte du développement durable, le design de produit et les modèles d’affaires sont interdépendants. Les résultats peuvent être résumés en six points: il existe des relations applicables universellement; les innovations de design substantielles jouent un rôle important dans le développement durable; la « durabilité » peut être une qualité émergente d’un modèle d’affaires; les partenariats peuvent être vitaux pour l’intégration des systèmes; un modèle de services a des bénéfices et des limitations considérables; le design peut agir comme levier à l’utilisation d’énergies renouvelables. Pratiquer simultanément l’innovation du modèle d’affaires et du produit peut apporter une valeur ajoutée, susciter des opportunités et augmenter l’efficience sur plusieurs facettes. Toutefois, les risques et les coûts de tels procédés sont souvent très élevés. En aidant à comprendre et définir comment les trois sphères mentionnées plus tôt sont interdépendantes, cette recherche pourrait idéalement inspirer des recherches supplémentaires sur le sujet. L’application par des organisations de la méthodologie et des apprentissages résultant de cette recherche peut permettre à d’autres d’utiliser le croisement entre l’innovation de produit et l’innovation du modèle d’affaires afin de résoudre des enjeux sociaux et environnementaux complexes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Depuis la dernière décennie, le biomimétisme est une discipline en plein essor dans le monde du design durable. De plus en plus, cette stratégie prend place dans plusieurs facettes du design, que ce soit dans le design industriel, dans l’architecture ou encore dans le design urbain. Le livre de Janine Benyus intitulé Biomimétisme: Quand la Nature Inspire des Innovations Durables (1997) est largement reconnu comme étant le catalyseur de la stratégie et comme l’indique le titre du livre, le biomimétisme est très souvent associé à l’innovation. Le but principal de cette recherche est de mieux comprendre le lien entre le biomimétisme et l’innovation. Cette recherche sur le biomimétisme comprend un objectif mineur et deux objectifs majeurs. Le premier objectif cherche à comprendre le véritable lien entre le biomimétisme et l’écodesign. Le second objectif vise non seulement à valider la théorie selon laquelle le biomimétisme est une stratégie menant à des solutions de design innovantes, mais également à établir quels types d’innovations ont été générés par cette stratégie. Finalement, le troisième objectif est d’identifier les aspects du biomimétisme qui mènent à des solutions de design innovantes. Pour accomplir ces objectifs, cette recherche utilisera une approche qualitative supportée par des études de cas et une revue de littérature. Afin de contextualiser les deux derniers objectifs, cette étude établit que le biomimétisme et l’écodesign sont des stratégies complémentaires plutôt qu’en compétition. Les conclusions de cette recherche démontrent que la théorie proposant que le biomimétisme soit une stratégie d’innovation est valide et que la discipline est surtout apte à générer l’innovation radicale. Finalement, la recherche indique que l’analogie de distance et la transdisciplinarité sont les deux aspects du biomimétisme aidant à produire des solutions de design innovantes. Le biomimétisme est mieux connu dans le contexte du design durable et cette recherche permet de mieux comprendre le biomimétisme dans le contexte de l’innovation. Considérant que le biomimétisme est une discipline qui suscite beaucoup d’intérêt des milieux académiques et privés, cette recherche participe à l’expansion de la connaissance sur le sujet et propose de nouvelles pistes de recherche sur le biomimétisme et l’innovation.
Resumo:
Full Text / Article complet
Resumo:
Public policies often involve choices of alternatives in which the size and the composition of the population may vary. Examples are the allocation of resources to prenatal care and the design of aid packages to developing countries. In order to assess the corresponding feasible choices on normative grounds, criteria for social evaluation that are capable of performing variable-population comparisons are required. We review several important axioms for welfarist population principles and discuss the link between individual well-being and the desirability of adding a new person to a given society.
Resumo:
Ce mémoire s’inscrit dans le domaine de l’architecture du paysage et du design urbain. La recherche se construit autour d’un questionnement sur le sens pouvant être attribué au parc La Fontaine par ses usagers en tant que cadre de vie urbain montréalais. Ce parc est un lieu emblématique de la ville par le caractère historique de son aménagement. Il est aussi un lieu populaire par sa situation géographique centrale au sein de l’arrondissement du Plateau-Mont-Royal. Par l’analyse de ce parc, nous cherchons à porter un regard sur la manière dont se construit l’expérience d’un parc urbain dans les particularités de son aménagement, de son contexte social et culturel. Notre étude semble pertinente dans la mesure où cet espace n’a jamais été abordé selon l’analyse de l’expérience paysagère. Notre réflexion se construit à partir d’un modèle socioculturel soutenu par une revue de littérature en architecture de paysage. Les travaux menés à la Chaire en paysage et environnement de l’Université de Montréal ont particulièrement été sollicités. Ce modèle considère le paysage comme une qualification sociale et culturelle d’un territoire. Il engage l’analyse vers des perspectives pluridimensionnelle, expérientielle et polysensorielle, tout en considérant le caractère formel (attributs physiques) du paysage. Nous avons également joint à ce cadre théorique les recherches menées en design et en anthropologie des sens. Ces axes de recherche éclairent les notions de l’expérience esthétique et sensorielle particulièrement en regard de la compréhension du vécu d’un espace ordinaire et quotidien. Selon ce cadre conceptuel, notre recherche fait appel à une approche compréhensive. Ainsi, nous abordons l’expérience du parc par un modèle d’analyse mettant l’emphase sur les usages, l’interprétation et la représentation de l’aménagement du parc La Fontaine. La méthodologie s’appuie sur une démarche de recherche qualitative. Elle se fonde sur une observation non participante des usagers du parc, sur des entretiens semi-dirigés et sur une étude physico-spatiale du lieu. Ce mémoire a pour finalité de conduire une première lecture du parc La Fontaine en abordant les dimensions composant le vécu de ses usagers. Nous espérons pouvoir contribuer à notre échelle à l’avancée des connaissances de cet espace du point de vue expérientiel et de la perspective paysagère sur la compréhension des parcs urbains.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Plusieurs logiciels utilisés dans la réalisation des pièces graphiques incluses dans ce mémoire : ArcGIS 10; Autocad 2012; GIS Consortium de la Ville de Chicago; PowerPoint 2010, Photoshop... etc. Notre recherche est la première et la seule qui aborde le phénomène de l'introversion résidentielle au Québec. Elle se focalise sur le postulat de la représentation du phénomène de l’introversion résidentielle autant qu’une forme urbaine fermée ou semi-fermée d’une descendance accouplée aux GCs étatsuniennes. De la gated community américaine vers l’enclave francilienne, à l’introversion résidentielle montréalaise. À l'aide de notre analyse typo-morphologique, basée principalement sur la théorie de Rossi (1966), nous avons dévoilé sur un nouveau fait urbain qui existe dans la communauté métropolitaine de Montréal. Nous l'avions désigné par : enclaves résidentielles introverties (ERI).
Resumo:
La pratique du design industriel dans la province canadienne de l’Alberta est en pleine croissance. Ses activités sont principalement concentrées à Edmonton et à Calgary, qui sont les plus grandes villes de la province. On y trouve des studios de design de renom, des communautés de design complexes et des programmes universitaires de design bien établis. Cependant, la pratique du design industriel albertaine est sous-développée en comparaison avec celle du reste du Canada et il y a peu de recherches et de documentation sur le design industriel en Alberta. Dans ce projet de mémoire, la pratique du design industriel en Alberta a été explorée depuis une approche historique. Pour pallier le manque de documentation, la collecte de données a été faite par une recherche qualitative, des entretiens narratifs et une recherche quantitative statistique. Une base d’information historique sur le design industriel albertain a été établie puis située par rapport au développement de la pratique du design industriel ailleurs au Canada. Les facteurs, événements et tendances dans l’histoire de la pratique du design industriel en Alberta ont été identifiés. De plus, le développement de la pratique du design industriel de l’Alberta a été comparé à celui du Québec et de l’Ontario. Les retombées de cette étude indiquent que la pratique du design industriel en Alberta présente quatre domaines de spécialisations distincts se développant depuis les années 1980. La pratique du design industriel en Alberta est sous-développée en comparaison à celui du Québec et de l’Ontario, mais elle peut devenir plus compétitive, au niveau canadien, avec plus de soutien gouvernemental, de meilleures relations avec l’industrie manufacturière et les institutions académiques, une communauté de design plus unifiée et en portant une plus grande attention aux domaines les plus prometteurs de l’industrie. Ces informations supportent une meilleure compréhension de la pratique du design industriel en Alberta et pourront informer les praticiens, enseignants et administrateurs du domaine du design industriel dans la province. Finalement, le mémoire servira de base à d’autres projets de recherche sur les changements potentiels dans la pratique du design industriel en Alberta et l’étude du design canadien et des industries de design régionales.
Resumo:
En utilisant des approches qualitative and quantitative cette thèse démontre que les aspects intangibles des espaces architecturaux influencent le bien-être humain. Le but est de faire savoir que les espaces intérieurs ont un impact sur le bien-être et que l’architecture peut être considérée comme une solution pour satisfaire les besoins des usagers. Dans la première étude, l’approche qualitative est explorée en utilisant la narration pour identifier les aspects intangibles des espaces intérieurs qui affectent le bien-être. Une discussion s’articule autour du Modèle de Réponses Expérientielles des Humains (Model of Human Experiential Responses to Space) et de son importance comme outil pour déterrer les caractéristiques environnementales qui influencent le bien-être et qui peut être utile pour les professionnels du design. Les résultats démontrent que 43 catégories sont interprétées comme étant des aspects intangibles et servent de canevas pour trois autres études. Les résultats démontrent que certaines caractéristiques environnementales similaires dans les résidences et les bureaux augmentent le sentiment de satisfaction et de bien-être. Dans la deuxième étude, une approche quantitative est explorée en utilisant les neurosciences et l’architecture afin de mesurer comment les espaces architecturaux affectent le bien-être. Le concept de neuroscience / environnement / comportement est utilisé où huit corrélats neuroscientifiques (Zeisel 2006) sont investigués afin de mesurer les effets du cerveau sur les espaces architecturaux. Les résultats démontrent que l’environnement peut affecter l’humeur, le niveau d’attention et le niveau de stress chez les humains et peut également augmenter leur performance. Les deux études contribuent aux connaissances que les caractéristiques environnementales affectent l’humeur et le niveau de satisfaction de la même façon dans les espaces résidentiels et dans les espaces de bureaux. Un bon environnement qui énergise les employés peut affecter leur performance au travail de façon positive (Vischer 2005).