17 resultados para Architecture and software patterns
em Universit
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
La conception architecturale du logis, individuel ou collectif, est un défi majeur pour les architectes depuis l'avènement de la modernité. Au début du 21ième siècle, la multiplicité des conditions démographiques et celle de la mobilité des personnes sous-tendent la complexité de l'élaboration de prototypes ou de modèles d'habitation. Que peut-on apprendre des expériences menées dans ce domaine après la seconde guerre mondiale aux États-Unis ? Ce mémoire de maîtrise est consacré à l'étude d’un cas particulier celui du programme de création architecturale réalisée en Californie de 1945 à 1966, connu sous le nom de : «Case Study House Program». Ce programme, dirigé par John Entenza, éditeur de la revue Arts and Architecture, rassemblait de nombreux architectes dont les plus célèbres sont Charles et Ray Eames, Richard Neutra, Craig Ellwood et Pierre Koenig, tous auteurs de maisons modernes devenues oeuvres canoniques dans l’histoire de l’architecture. L'analyse détaillé de ce cas et de ses retombées devrait permettre de mieux cerner les aspects suivants: la portée critique du CSHP (case study house program) qui s'opposait aux modèles dominants du marché immobilier, modèles généralement inspirés de styles traditionnels; le potentiel et les limites d'une telle démarche face à la demande sociale; la dimension anticipatrice des propositions du CSHP pour la conception de logis mieux adaptés aux besoins du 21ième siècle, en particulier ceux qui découlent des changements démographiques et de la mobilité géographiques des personnes; la valeur d'exemple du CSHP pour mieux comprendre les fondements de la résistance du public aux innovations architecturales, autant du point de vue technique que du point de vue esthétique.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
We developed a nanoparticles (NPs) library from poly(ethylene glycol)–poly lactic acid comb-like polymers with variable amount of PEG. Curcumin was encapsulated in the NPs with a view to develop a delivery platform to treat diseases involving oxidative stress affecting the CNS. We observed a sharp decrease in size between 15 and 20% w/w of PEG which corresponds to a transition from a large solid particle structure to a “micelle-like” or “polymer nano-aggregate” structure. Drug loading, loading efficacy and release kinetics were determined. The diffusion coefficients of curcumin in NPs were determined using a mathematical modeling. The higher diffusion was observed for solid particles compared to “polymer nano-aggregate” particles. NPs did not present any significant toxicity when tested in vitro on a neuronal cell line. Moreover, the ability of NPs carrying curcumin to prevent oxidative stress was evidenced and linked to polymer architecture and NPs organization. Our study showed the intimate relationship between the polymer architecture and the biophysical properties of the resulting NPs and sheds light on new approaches to design efficient NP-based drug carriers.
Resumo:
Affiliation: Département de biochimie, Faculté de médecine, Université de Montréal
Resumo:
Affiliation: Pascal Michel : Département de pathologie et microbiologie, Faculté de médecine vétérinaire, Université de Montréal
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Contexte: Les facteurs de risque comportementaux, notamment l’inactivité physique, le comportement sédentaire, le tabagisme, la consommation d’alcool et le surpoids sont les principales causes modifiables de maladies chroniques telles que le cancer, les maladies cardiovasculaires et le diabète. Ces facteurs de risque se manifestent également de façon concomitante chez l’individu et entraînent des risques accrus de morbidité et de mortalité. Bien que les facteurs de risque comportementaux aient été largement étudiés, la distribution, les patrons d’agrégation et les déterminants de multiples facteurs de risque comportementaux sont peu connus, surtout chez les enfants et les adolescents. Objectifs: Cette thèse vise 1) à décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux des maladies chroniques chez les enfants et adolescents canadiens; 2) à explorer les corrélats individuels, sociaux et scolaires de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens; et 3) à évaluer, selon le modèle conceptuel de l’étude, l’influence longitudinale d’un ensemble de variables distales (c’est-à-dire des variables situées à une distance intermédiaire des comportements à risque) de type individuel (estime de soi, sentiment de réussite), social (relations sociales, comportements des parents/pairs) et scolaire (engagement collectif à la réussite, compréhension des règles), ainsi que de variables ultimes (c’est-à-dire des variables situées à une distance éloignée des comportements à risque) de type individuel (traits de personnalité, caractéristiques démographiques), social (caractéristiques socio-économiques des parents) et scolaire (type d’école, environnement favorable, climat disciplinaire) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les enfants et adolescents canadiens. Méthodes: Des données transversales (n = 4724) à partir du cycle 4 (2000-2001) de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) ont été utilisées pour décrire la prévalence et les patrons d’agrégation de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-17 ans. L’agrégation des facteurs de risque a été examinée en utilisant une méthode du ratio de cas observés sur les cas attendus. La régression logistique ordinale a été utilisée pour explorer les corrélats de multiples facteurs de risque comportementaux dans un échantillon transversal (n = 1747) de jeunes canadiens âgés de 10-15 ans du cycle 4 (2000-2001) de l’ELNEJ. Des données prospectives (n = 1135) à partir des cycle 4 (2000-2001), cycle 5 (2002-2003) et cycle 6 (2004-2005) de l’ELNEJ ont été utilisées pour évaluer l’influence longitudinale des variables distales et ultimes (tel que décrit ci-haut dans les objectifs) sur le taux d’occurrence de multiples facteurs de risque comportementaux chez les jeunes canadiens âgés de 10-15 ans; cette analyse a été effectuée à l’aide des modèles de Poisson longitudinaux. Résultats: Soixante-cinq pour cent des jeunes canadiens ont rapporté avoir deux ou plus de facteurs de risque comportementaux, comparativement à seulement 10% des jeunes avec aucun facteur de risque. Les facteurs de risque comportementaux se sont agrégés en de multiples combinaisons. Plus précisément, l’occurrence simultanée des cinq facteurs de risque était 120% plus élevée chez les garçons (ratio observé/attendu (O/E) = 2.20, intervalle de confiance (IC) 95%: 1.31-3.09) et 94% plus élevée chez les filles (ratio O/E = 1.94, IC 95%: 1.24-2.64) qu’attendu. L’âge (rapport de cotes (RC) = 1.95, IC 95%: 1.21-3.13), ayant un parent fumeur (RC = 1.49, IC 95%: 1.09-2.03), ayant rapporté que la majorité/tous de ses pairs consommaient du tabac (RC = 7.31, IC 95%: 4.00-13.35) ou buvaient de l’alcool (RC = 3.77, IC 95%: 2.18-6.53), et vivant dans une famille monoparentale (RC = 1.94, IC 95%: 1.31-2.88) ont été positivement associés aux multiples comportements à risque. Les jeunes ayant une forte estime de soi (RC = 0.92, IC 95%: 0.85-0.99) ainsi que les jeunes dont un des parents avait un niveau d’éducation postsecondaire (RC = 0.58, IC 95%: 0.41-0.82) étaient moins susceptibles d’avoir de multiples facteurs de risque comportementaux. Enfin, les variables de type social distal (tabagisme des parents et des pairs, consommation d’alcool par les pairs) (Log du rapport de vraisemblance (LLR) = 187.86, degrés de liberté = 8, P < 0,001) et individuel distal (estime de soi) (LLR = 76.94, degrés de liberté = 4, P < 0,001) ont significativement influencé le taux d’occurrence de multiples facteurs de risque comportementaux. Les variables de type individuel ultime (âge, sexe, anxiété) et social ultime (niveau d’éducation du parent, revenu du ménage, structure de la famille) ont eu une influence moins prononcée sur le taux de cooccurrence des facteurs de risque comportementaux chez les jeunes. Conclusion: Les résultats suggèrent que les interventions de santé publique devraient principalement cibler les déterminants de type individuel distal (tel que l’estime de soi) ainsi que social distal (tels que le tabagisme des parents et des pairs et la consommation d’alcool par les pairs) pour prévenir et/ou réduire l’occurrence de multiples facteurs de risque comportementaux chez les enfants et les adolescents. Cependant, puisque les variables de type distal (telles que les caractéristiques psychosociales des jeunes et comportements des parents/pairs) peuvent être influencées par des variables de type ultime (telles que les caractéristiques démographiques et socioéconomiques), les programmes et politiques de prévention devraient également viser à améliorer les conditions socioéconomiques des jeunes, particulièrement celles des enfants et des adolescents des familles les plus démunies.
Resumo:
L’activité rythmique des muscles masticateurs (ARMM) pendant le sommeil se retrouve chez environ 60% de la population générale adulte. L'étiologie de ce mouvement n'est pas encore complètement élucidée. Il est cependant démontré que l’augmentation de la fréquence des ARMM peut avoir des conséquences négatives sur le système masticatoire. Dans ce cas, l'ARMM est considérée en tant que manifestation d'un trouble moteur du sommeil connue sous le nom de bruxisme. Selon la Classification Internationale des Troubles du Sommeil, le bruxisme est décrit comme le serrement et grincement des dents pendant le sommeil. La survenue des épisodes d’ARMM est associée à une augmentation du tonus du système nerveux sympathique, du rythme cardiaque, de la pression artérielle et elle est souvent en association avec une amplitude respiratoire accrue. Tous ces événements peuvent être décrits dans le contexte d’un micro-éveil du sommeil. Cette thèse comprend quatre articles de recherche visant à étudier i) l'étiologie de l’ARMM pendant le sommeil en relation aux micro-éveils, et à évaluer ii) les aspects cliniques du bruxisme du sommeil, du point de vue diagnostique et thérapeutique. Pour approfondir l'étiologie de l’ARMM et son association avec la fluctuation des micro-éveils, nous avons analysé le patron cyclique alternant (ou cyclic alternating pattern (CAP) en anglais), qui est une méthode d’analyse qui permet d’évaluer l'instabilité du sommeil et de décrire la puissance des micro-éveils. Le CAP a été étudié chez des sujets bruxeurs et des sujets contrôles qui ont participé à deux protocoles expérimentaux, dans lesquels la structure et la stabilité du sommeil ont été modifiées par l'administration d'un médicament (la clonidine), ou avec l'application de stimulations sensorielles (de type vibratoire/auditif) pendant le sommeil. Dans ces deux conditions expérimentales caractérisées par une instabilité accrue du sommeil, nous étions en mesure de démontrer que les micro-éveils ne sont pas la cause ou le déclencheur de l’ARMM, mais ils représentent plutôt la «fenêtre permissive» qui facilite l'apparition de ces mouvements rythmiques au cours du sommeil. Pour évaluer la pertinence clinique du bruxisme, la prévalence et les facteurs de risque, nous avons effectué une étude épidémiologique dans une population pédiatrique (7-17 ans) qui était vue en consultation en orthodontie. Nous avons constaté que le bruxisme est un trouble du sommeil très fréquent chez les enfants (avec une prévalence de 15%), et il est un facteur de risque pour l'usure des dents (risque relatif rapproché, RRR 8,8), la fatigue des muscles masticateurs (RRR 10,5), les maux de tête fréquents (RRR 4,3), la respiration bruyante pendant le sommeil (RRR 3,1), et divers symptômes liés au sommeil, tels que la somnolence diurne (RRR 7,4). Ces résultats nous ont amenés à développer une étude expérimentale pour évaluer l'efficacité d'un appareil d'avancement mandibulaire (AAM) chez un groupe d'adolescents qui présentaient à la fois du bruxisme, du ronflement et des maux de tête fréquents. L'hypothèse est que dans la pathogenèse de ces comorbidités, il y a un mécanisme commun, probablement lié à la respiration pendant le sommeil, et que l'utilisation d'un AAM peut donc agir sur plusieurs aspects liés. À court terme, le traitement avec un AAM semble diminuer l'ARMM (jusqu'à 60% de diminution), et améliorer le ronflement et les maux de tête chez les adolescents. Cependant, le mécanisme d'action exact des AAM demeure incertain; leur efficacité peut être liée à l'amélioration de la respiration pendant le sommeil, mais aussi à l'influence que ces appareils pourraient avoir sur le système masticatoire. Les interactions entre le bruxisme du sommeil, la respiration et les maux de tête, ainsi que l'efficacité et la sécurité à long terme des AAM chez les adolescents, nécessitent des études plus approfondies.
Resumo:
Cette thèse traite de la résistance du VIH-1 aux antirétroviraux, en particulier de l'activité antivirale de plusieurs inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) ainsi que des inhibiteurs de protéase (IP). Nous avons exploré l’émergence et la spécificité des voies de mutations qui confèrent la résistance contre plusieurs nouveaux INNTI (étravirine (ETR) et rilpivirine (RPV)) (chapitres 2 et 3). En outre, le profil de résistance et le potentiel antirétroviral d'un nouvel IP, PL-100, est présenté dans les chapitres 4 et 5. Pour le premier projet, nous avons utilisé des sous-types B et non-B du VIH-1 pour sélectionner des virus résistants à ETR, et ainsi montré que ETR favorise l’émergence des mutations V90I, K101Q, E138K, V179D/E/F, Y181C, V189I, G190E, H221H/Y et M230L, et ce, en 18 semaines. Fait intéressant, E138K a été la première mutation à émerger dans la plupart des cas. Les clones viraux contenant E138K ont montré un faible niveau de résistance phénotypique à ETR (3,8 fois) et une diminution modeste de la capacité de réplication (2 fois) par rapport au virus de type sauvage. Nous avons également examiné les profils de résistance à ETR et RPV dans les virus contenant des mutations de résistance aux INNTI au début de la sélection. Dans le cas du virus de type sauvage et du virus contenant la mutation unique K103N, les premières mutations à apparaître en présence d’ETR ou de RPV ont été E138K ou E138G suivies d’autres mutations de résistance aux INNTI. À l’inverse, dans les mêmes conditions, le virus avec la mutation Y181C a évolué pour produire les mutations V179I/F ou A62V/A, mais pas E138K/G. L'ajout de mutations à la position 138 en présence de Y181C n'augmente pas les niveaux de résistance à ETR ou RPV. Nous avons également observé que la combinaison de Y181C et E138K peut conduire à un virus moins adapté par rapport au virus contenant uniquement Y181C. Sur la base de ces résultats, nous suggérons que les mutations Y181C et E138K peuvent être antagonistes. L’analyse de la résistance au PL-100 des virus de sous-type C et CRF01_AE dans les cellules en culture est décrite dans le chapitre 4. Le PL-100 sélectionne pour des mutations de résistance utilisant deux voies distinctes, l'une avec les mutations V82A et L90M et l'autre avec T80I, suivi de l’addition des mutations M46I/L, I54M, K55R, L76F, P81S et I85V. Une accumulation d'au moins trois mutations dans le rabat protéique et dans le site actif est requise dans chaque cas pour qu’un haut niveau de résistance soit atteint, ce qui démontre que le PL-100 dispose d'une barrière génétique élevée contre le développement de la résistance. Dans le chapitre 5, nous avons évalué le potentiel du PL-100 en tant qu’inhibiteur de protéase de deuxième génération. Les virus résistants au PL-100 émergent en 8-48 semaines alors qu’aucune mutation n’apparaît avec le darunavir (DRV) sur une période de 40 semaines. La modélisation moléculaire montre que la haute barrière génétique du DRV est due à de multiples interactions avec la protéase dont des liaison hydrogènes entre les groupes di-tétrahydrofuranne (THF) et les atomes d'oxygène des acides aminés A28, D29 et D30, tandis que la liaison de PL-100 est principalement basée sur des interactions polaires et hydrophobes délocalisées à travers ses groupes diphényle. Nos données suggèrent que les contacts de liaison hydrogène et le groupe di-THF dans le DRV, ainsi que le caractère hydrophobe du PL-100, contribuent à la liaison à la protéase ainsi qu’à la haute barrière génétique contre la résistance et que la refonte de la structure de PL-100 pour inclure un groupe di-THF pourrait améliorer l’activité antivirale et le profil de résistance.
L’identité en projets : ville, architecture et patrimoine. Analyse de concours à Québec et à Toronto
Resumo:
Dans un contexte de globalisation et de profusion des discours identitaires, la thèse examine le concept d’identité, ses définitions et ses usages dans les débats et les pratiques de la ville, de l’architecture et du patrimoine. Les interventions sur un bâtiment historique révèlent autant le rapport identitaire de la société avec son histoire que celui avec le monde contemporain. La recherche traite de concours d’architecture dans deux villes canadiennes qui aspirent à se positionner à l’échelle internationale, l’une focalisant sur l’aspect contemporain global et l’autre sur l’aspect historique et local. L’objectif de la recherche est d’une part de contribuer au dévoilement du processus de construction identitaire des villes contemporaines à travers les projets d’architecture. D’autre part, il s’agit d’analyser le processus d’identification et l’identité architecturale dans son rapport à l’histoire et à la contemporanéité dans la pratique au sein de bâtiments historiques. La ville devient un objet de communication, qui use de marketing urbain, pour augmenter sa visibilité. L’architecture devient un moyen de communication utilisé pour transmettre une identité visuelle. La méthodologie combine l’analyse des discours, ainsi que l’analyse de l’architecture et de sa représentation. Le choix du concours du Centre d'accueil et d'interprétation de la Place-Royale à Québec (1996) et de l’agrandissement du Musée royal d’Ontario (2001) à Toronto permet d’appréhender les différentes facettes du concept d’identité et de révéler les enjeux locaux et internationaux. Le fait qu’il s’agisse de concours donne accès à un corpus de discours qui comprend les programmes, les politiques de la ville, les présentations des architectes et la réception. L’histoire de chaque concours ainsi que l’analyse sémantique des discours de la commande éclairent le rapport entre les processus et les intentions et permettent de mettre en lumière les enjeux locaux. L’analyse des discours textuels et visuels des architectes dévoile le processus d’identification des projets, les différents types de référents impliqués ainsi que les stratégies de communication employées. L’analyse des projets rend compte des caractéristiques de l’identité de l’architecture contemporaine et son rapport avec le patrimoine. La recherche dévoile l’importance des discours et de la communication dans la construction identitaire des villes en amont des concours ainsi que le débat sociétal que la question pose. Durant le processus d’identification architecturale, le biais induit par la commande amène une emphase et une surenchère des discours historiques par les architectes dans le cas de Québec. Les projets proposés misent sur une mise en scène de la ville historique et du patrimoine et focalisent sur l’expérience visuelle des visiteurs. Dans le cas de Toronto, l’intérêt pour l’aspect global et spectaculaire dans la construction identitaire de la ville en amont du concours, génère un engouement pour une représentation attractive des projets et pour une architecture iconique.
Resumo:
De nos jours, l'utilisation accrue de combustibles à base de fossiles et l'électricité met en péril l'environnement naturel à cause des niveaux élevés de pollution. Il est donc plausible de prévoir des économies d'énergie significatives grâce à la climatisation dite «naturelle»». En accord avec les objectifs acceptés à l'échelle internationale d'une architecture «verte» et durable, l'utilisation de cours intérieures associées aux capteurs de vent, aux murs-Trombe et à d'autres systèmes de climatisation naturelle (aussi bien traditionnels que nouveaux), paraît prometteuse. Ce mémoire propose une analyse de nouvelles approches à la climatisation naturelle et à la production d'air frais avec une consommation minimale d'énergie, eu égard aux traditions et aux tendances, en particulier dans les zones climatiques chaudes et sèches comme l'Iran. Dans ce contexte, regarder l'architecture de l'Islam et la discipline du Qur'an paraissent offrir un guide pour comprendre l'approche musulmane aux processus de décision en design. Nous regardons donc les traditions et les tendances en ce qui concerne la climatisation naturelle à travers l'élément le plus important du contexte islamique, à savoir le Qur'an. C'est pourquoi, à l'intérieur du thème de la tradition, nous avons pris en compte quelques considérations concernant l'influence de l'Islam, et en particulier le respect de la nature associé à un équilibre entre l'harmonie et l'individualité. Ce sont autant de facteurs qui influencent la prise de décisions visant à résoudre des problèmes scientifiques majeurs selon la philosophie et les méthodes islamiques ; ils nous permettent de faire quelques recommandations. La description des principes sous-jacents aux capteurs à vent et des antécédents trouvés dans la nature tels que les colonies de termites, est présentée également. Sous la rubrique tendances, nous avons introduit l'utilisation de matériaux et de principes de design nouveaux. Regarder simultanément ces matériaux nouveaux et l'analogie des colonies de termites suggère de bonnes approches à la conception d'abris pour les victimes de tremblements de terre dans les régions sisimques. Bam, une ville iranienne, peut être considérée comme un exemple spécifique illustrant où les principes exposés dans ce mémoire peuvent s'appliquer le plus adéquatement.
Resumo:
Depuis la publication de l’Utopia de Thomas More au XVIe siècle, la notion d’utopie s’est vue appropriée par différents domaines d’expression artistique. Bien vite, l’architecture et l’urbanisme en font leur apanage lorsqu’il est question de concilier, en des dessins et des plans, des sociétés idéalisées et leurs représentations. La modernité et les nouvelles technologies modifient les modalités de l’utopie qui tend alors vers l’actualisation de ses modèles en des projets construits. Le XXe siècle est aussi marqué par une abondance de formes et d’idées dont la transmission et le partage sont accélérés par la création de nouveaux médias. Si les années 1960 et 1970 sont le lieu d’émergence de formes expérimentales et de projets utopiques, notamment alimentés par la Révolution tranquille et Mai 68, il est encore difficile au Québec de retracer ces projets en arts et en architecture puisqu’ils sont peu documentés. Par l’étude de la pratique artistique d’Yvette Bisson (1926-), de Robert Roussil (1925-2013) et de Melvin Charney (1935-2012), ce mémoire propose d’observer les différentes tactiques d’appropriation de l’espace auxquelles s’apparentent les modalités de la sculpture de ces trois artistes. Par l’intermédiaire de Michel de Certeau, Henri Lefebvre et Louis Marin, nous chercherons à expliquer quelle est la teneur critique des imaginaires mis en œuvre par les trois artistes pour créer de nouveaux lieux utopiques de la sculpture.