30 resultados para component architecture
em Université de Montréal, Canada
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.
Resumo:
Rapport de recherche
Resumo:
Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.
Resumo:
Le bâtir est un trait fondamental de la condition humaine. À notre époque, les réflexions en vue de mieux comprendre le sens phénoménologique et anthropologique de l’acte de bâtir se multiplient. La constante qui semble rallier ces réflexions consiste à reconnaître l’enracinement du sens de l’acte de bâtir dans l’habiter : le bâtir puiserait ainsi sa signification première dans l’ha- biter. Ce ralliement et ce consensus semblent marquer ainsi ce que l’histoire pourrait un jour désigner comme le « tournant » de l’habiter en architecture. Il est maintenant permis d’envisager et de construire le portrait global de cette activité en usant de toutes les palettes de couleurs que comprend le spectre des facultés de l’esprit humain : la poétique (l’esthétique et la technique), la logique, la phénoménologie, l’herméneutique, la rhétorique, la mystique et, bien sûr, l’éthique.
Resumo:
Résumé Cet ouvrage examine les fondements du mouvement de conservation architecturale moderne. Dans ce contexte, la création de la « Society for the Protection of Ancient Buildings » par William Morris est considéré comme le point culminant d’un processus historique qui mena à l’apparition du mouvement. Sa genèse est présentée comme ayant été le résultat d’une confrontation entre deux visions utopiques du moyen-âge; celle de l’Église Anglicane et celle de William Morris. Un survol détaillé des origines, des résultats et des effets de la « Renaissance Gothique » ouvre tout grand sur les sources littéraires, idéologiques et religieuses qui y donnèrent sa force. Les grands programmes de restaurations qui ont vu le jour en Angleterre à l’ère victorienne sont examinés en relation avec l’Église Anglicane et caractérisés par les motivations idéologiques de celle-ci. Bien que ce memoire ne réussit pas à démontré de manière sans équivoque que la création du mouvement de conservation architectural moderne par Morris fut essentiellement en reaction au programme idéologique de l’Église Anglicane au dix-neuvième siècle, nous y retrouvons néanmoins une réévaluation des causes et de l’impact de la « Renaissance Gothique » qui, de manière significative, allaient à l’encontre des croyances et des principes les plus chers à Morris. Il existe une quantité admirable d’ouvrages examinant les travaux et l’impact de William Morris en littérature et en arts, ainsi que son activisme socialiste. Cependant, il serait juste de constater qu’en comparaison, la grande contribution qu’il apporta à la protection de l’architecture patrimoniale a certainement été négligée dans les publications à son sujet. Ce projet de recherche examine les éléments et les conditions qui ont motivé Morris à créer un mouvement qui encore aujourd’hui continue de croitre en importance et en influence.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
Les changements évolutifs nous instruisent sur les nombreuses innovations permettant à chaque organisme de maximiser ses aptitudes en choisissant le partenaire approprié, telles que les caractéristiques sexuelles secondaires, les patrons comportementaux, les attractifs chimiques et les mécanismes sensoriels y répondant. L'haploïde de la levure Saccharomyces cerevisiae distingue son partenaire en interprétant le gradient de la concentration d'une phéromone sécrétée par les partenaires potentiels grâce à un réseau de protéines signalétiques de type kinase activées par la mitose (MAPK). La décision de la liaison sexuelle chez la levure est un événement en "tout–ourien", à la manière d'un interrupteur. Les cellules haploïdes choisissent leur partenaire sexuel en fonction de la concentration de phéromones qu’il produit. Seul le partenaire à proximité sécrétant des concentrations de phéromones égales ou supérieures à une concentration critique est retenu. Les faibles signaux de phéromones sont attribués à des partenaires pouvant mener à des accouplements infructueux. Notre compréhension du mécanisme moléculaire contrôlant cet interrupteur de la décision d'accouplement reste encore mince. Dans le cadre de la présente thèse, je démontre que le mécanisme de décision de la liaison sexuelle provient de la compétition pour le contrôle de l'état de phosphorylation de quatre sites sur la protéine d'échafaudage Ste5, entre la MAPK, Fus3, et la phosphatase,Ptc1. Cette compétition résulte en la dissociation de type « intérupteur » entre Fus3 et Ste5, nécessaire à la prise de décision d'accouplement en "tout-ou-rien". Ainsi, la décision de la liaison sexuelle s'effectue à une étape précoce de la voie de réponse aux phéromones et se produit rapidement, peut-être dans le but de prévenir la perte d’un partenaire potentiel. Nous argumentons que l'architecture du circuit Fus3-Ste5-Ptc1 génère un mécanisme inédit d'ultrasensibilité, ressemblant à "l'ultrasensibilité d'ordre zéro", qui résiste aux variations de concentration de ces protéines. Cette robustesse assure que l'accouplement puisse se produire en dépit de la stochasticité cellulaire ou de variations génétiques entre individus.Je démontre, par la suite, qu'un évènement précoce en réponse aux signaux extracellulaires recrutant Ste5 à la membrane plasmique est également ultrasensible à l'augmentation de la concentration de phéromones et que cette ultrasensibilité est engendrée par la déphosphorylation de huit phosphosites en N-terminal sur Ste5 par la phosphatase Ptc1 lorsqu'elle est associée à Ste5 via la protéine polarisante, Bem1. L'interférence dans ce mécanisme provoque une perte de l'ultrasensibilité et réduit, du même coup, l'amplitude et la fidélité de la voie de réponse aux phéromones à la stimulation. Ces changements se reflètent en une réduction de la fidélité et de la précision de la morphologie attribuable à la réponse d'accouplement. La polarisation dans l'assemblage du complexe protéique à la surface de la membrane plasmique est un thème général persistant dans tous les organismes, de la bactérie à l'humain. Un tel complexe est en mesure d'accroître l'efficacité, la fidélité et la spécificité de la transmission du signal. L'ensemble de nos découvertes démontre que l'ultrasensibilité, la précision et la robustesse de la réponse aux phéromones découlent de la régulation de la phosphorylation stoichiométrique de deux groupes de phosphosites sur Ste5, par la phosphatase Ptc1, un groupe effectuant le recrutement ultrasensible de Ste5 à la membrane et un autre incitant la dissociation et l'activation ultrasensible de la MAPK terminal Fus3. Le rôle modulateur de Ste5 dans la décision de la destinée cellulaire étend le répertoire fonctionnel des protéines d'échafaudage bien au-delà de l'accessoire dans la spécificité et l'efficacité des traitements de l'information. La régulation de la dynamique des caractères signal-réponse à travers une telle régulation modulaire des groupes de phosphosites sur des protéines d'échafaudage combinées à l'assemblage à la membrane peut être un moyen général par lequel la polarisation du destin cellulaire est obtenue. Des mécanismes similaires peuvent contrôler les décisions cellulaires dans les organismes complexes et peuvent être compromis dans des dérèglements cellulaires, tel que le cancer. Finalement, sur un thème relié, je présente la découverte d'un nouveau mécanisme où le seuil de la concentration de phéromones est contrôlé par une voie sensorielle de nutriments, ajustant, de cette manière, le point prédéterminé dans lequel la quantité et la qualité des nutriments accessibles dans l'environnement déterminent le seuil à partir duquel la levure s'accouple. La sous-unité régulatrice de la kinase à protéine A (PKA),Bcy1, une composante clé du réseau signalétique du senseur aux nutriments, interagit directement avec la sous-unité α des petites protéines G, Gpa1, le premier effecteur dans le réseau de réponse aux phéromones. L'interaction Bcy1-Gpa1 est accrue lorsque la cellule croit en présence d'un sucre idéal, le glucose, diminuant la concentration seuil auquel la décision d'accouplement est activée. Compromettre l'interaction Bcy1-Gpa1 ou inactiver Bcy1 accroît la concentration seuil nécessaire à une réponse aux phéromones. Nous argumentons qu'en ajustant leur sensibilité, les levures peuvent intégrer le stimulus provenant des phéromones au niveau du glucose extracellulaire, priorisant la décision de survie dans un milieu pauvre ou continuer leur cycle sexuel en choisissant un accouplement.
Resumo:
Toutes les photos présentes dans ce mémoire (sauf indication contraire) ont été réalisées par Dan Antonat (c).
Resumo:
La conception architecturale du logis, individuel ou collectif, est un défi majeur pour les architectes depuis l'avènement de la modernité. Au début du 21ième siècle, la multiplicité des conditions démographiques et celle de la mobilité des personnes sous-tendent la complexité de l'élaboration de prototypes ou de modèles d'habitation. Que peut-on apprendre des expériences menées dans ce domaine après la seconde guerre mondiale aux États-Unis ? Ce mémoire de maîtrise est consacré à l'étude d’un cas particulier celui du programme de création architecturale réalisée en Californie de 1945 à 1966, connu sous le nom de : «Case Study House Program». Ce programme, dirigé par John Entenza, éditeur de la revue Arts and Architecture, rassemblait de nombreux architectes dont les plus célèbres sont Charles et Ray Eames, Richard Neutra, Craig Ellwood et Pierre Koenig, tous auteurs de maisons modernes devenues oeuvres canoniques dans l’histoire de l’architecture. L'analyse détaillé de ce cas et de ses retombées devrait permettre de mieux cerner les aspects suivants: la portée critique du CSHP (case study house program) qui s'opposait aux modèles dominants du marché immobilier, modèles généralement inspirés de styles traditionnels; le potentiel et les limites d'une telle démarche face à la demande sociale; la dimension anticipatrice des propositions du CSHP pour la conception de logis mieux adaptés aux besoins du 21ième siècle, en particulier ceux qui découlent des changements démographiques et de la mobilité géographiques des personnes; la valeur d'exemple du CSHP pour mieux comprendre les fondements de la résistance du public aux innovations architecturales, autant du point de vue technique que du point de vue esthétique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal