796 resultados para Architecture for a DS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Palynomorphs from two siliciclastic margins were examined to gain insights into continental margin architecture. Sea level change is thought to be one of the primary controls on continental margin architecture. Because Late Neogene glacioeustasy has been well studied marine sediments deposited during the Late Neogene were examined to test this concept. Cores from the outer shelf and upper slope were taken from the New Jersey margin in the western North Atlantic Ocean and from the Sunda Shelf margin in the South China Sea. Continental margin architecture is often described in a sequence stratigraphic context. One of the main goals of both coring projects was to test the theoretical sequence stratigraphic models developed by a research group at Exxon (e.g. Wilgus et al., 1988). Palynomorphs provide one of the few methods of inferring continental margin architecture in monotonous, siliciclastic marine sediments where calcareous sediments are rare (e.g. New Jersey margin). In this study theoretical models of the palynological signature expected in sediment packages deposited during the various increments of a glacioeustatic cycle were designed. These models were based on the modem palynomorph trends and taphonomic factors thought to control palynomorph distribution. Both terrestrial (pollen and spores) and marine (dinocysts) palynomorphs were examined. The palynological model was then compared with New Jersey margin and Sunda Shelf margin sediments. The predicted palynological trends provided a means of identifying a complete cycle of glacioeustatic change (Oxygen Isotope Stage 5e to present) in the uppermost 80 meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea level change, is thought to be the major factor controlling margin architecture during the late Pleistocene here at the upper slope. This is likely a function of the glacial scouring of the continents which significantly increases sediment availability during glacial stages. The subaerially exposed continental shelf during the lowstand periods would have been subject to significant amounts of erosion fi:om the proglacial rivers flowing fi-om the southern regions of the ice-sheet. The slope site is non-depositional today and was also non-depositional during the last full interglacial period. The palynomorph data obtained fi-om the South China Sea indicate that the major difference between the New Jersey Margin sites and the Sunda Shelf margin sites is the variation in sediment supply and the rate of sediment accumulation. There was significantly less variation in sediment supply between glacial and interglacial periods and less overall sediment accumulation at the Sunda Shelf margin. The data presented here indicate that under certain conditions the theoretical palynological models allow the identification of individual sequence stratigraphic units and therefore, allow inferences regarding continental margin architecture. The major condition required in this approach is that a complete and reliable database of the contemporaneous palynomorphs be available.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The synthesis of 3-ethynylthienyl- (2.07), 3-ethynylterthienyl- (2.19) substituted qsal [qsalH = N-(8-quinolyl)salicylaldimine] and 3,3' -diethynyl-2,2' -bithienyl bridging bisqsal (5.06) ligands are described along with the preparation and characterization of eight cationic iron(III) complexes containing these ligands with a selection of counteranions [(2.07) with: SCN- (2.08), PF6- (2.09), and CI04- (2.10); (2.19) with PF6 - (2.20); (5.06) with: cr (5.07), SeN- (5.08), PF6- (5.09), and CI04- (5.10)]. Spin-crossover is observed in the solid state for (2.08) - (2.10) and (5.07) - (5.10), including a ve ry rare S = 5/2 to 3/2 spin-crossover in complex (2.09). The unusal reduction of complex (2.10) produces a high-spin iron(I1) complex (2.12). Six iron(II) complexes that are derived from thienyl analogues of bispicen [bispicen = bis(2-pyridylmethyl)-diamine] [2,5-thienyl substituents = H- (3.11), Phenyl- (3.12), 2- thienyl (3.13) or N-phenyl-2-pyridinalimine ligands [2,5-phenyl substituents = diphenyl (3.23), di(2-thienyl) (3.24), 4-phenyl substituent = 3-thienyl (3.25)] are reported Complexes (3.11), (3.23) and (3.25) display thermal spin-crossover in the solid state and (3.12) remains high-spin at all temperatures. Complex (3.13) rearranges to form an iron(II) complex (3.14) with temperature dependent magnetic properties be s t described as a one-dimensional ferromagnetic chain, with interchain antiferromagnetic interactions and/or ZFS dominant at low temperatures. Magnetic succeptibility and Mossbauer data for complex (3.24) display a temperature dependent mixture of spin isomers. The preparation and characterization of two cobalt(II) complexes containing 3- ethynylthienyl- (4.04) and 3-ethynylterhienyl- (4.06) substituted bipyridine ligands [(4.05): [Co(dbsqh(4.04)]; (4.07): [Co(dbsq)2(4.06)]] [dbsq = 3,5-dbsq=3,5-di-tert-butylI ,2-semiquinonate] are reported. Complexes (4.05) and (4.07) exhibit thermal valence tautomerism in the solid state and in solution. Self assembly of complex (2.10) into polymeric spheres (6.11) afforded the first spincrossover, polydisperse, micro- to nanoscale material of its kind. . Complexes (2.20), (3.24) and (4.07) also form polymers through electrochemical synthesis to produce hybrid metaUopolymer films (6.12), (6.15) and (6.16), respectively. The films have been characterized by EDX, FT-IR and UV-Vis spectroscopy. Variable-temperature magnetic susceptibility measurements demonstrate that spin lability is operative in the polymers and conductivity measurements confirm the electron transport properties. Polymer (6.15) has a persistent oxidized state that shows a significant decrease in electrical resistance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As the complexity of evolutionary design problems grow, so too must the quality of solutions scale to that complexity. In this research, we develop a genetic programming system with individuals encoded as tree-based generative representations to address scalability. This system is capable of multi-objective evaluation using a ranked sum scoring strategy. We examine Hornby's features and measures of modularity, reuse and hierarchy in evolutionary design problems. Experiments are carried out, using the system to generate three-dimensional forms, and analyses of feature characteristics such as modularity, reuse and hierarchy were performed. This work expands on that of Hornby's, by examining a new and more difficult problem domain. The results from these experiments show that individuals encoded with those three features performed best overall. It is also seen, that the measures of complexity conform to the results of Hornby. Moving forward with only this best performing encoding, the system was applied to the generation of three-dimensional external building architecture. One objective considered was passive solar performance, in which the system was challenged with generating forms that optimize exposure to the Sun. The results from these and other experiments satisfied the requirements. The system was shown to scale well to the architectural problems studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le bâtir est un trait fondamental de la condition humaine. À notre époque, les réflexions en vue de mieux comprendre le sens phénoménologique et anthropologique de l’acte de bâtir se multiplient. La constante qui semble rallier ces réflexions consiste à reconnaître l’enracinement du sens de l’acte de bâtir dans l’habiter : le bâtir puiserait ainsi sa signification première dans l’ha- biter. Ce ralliement et ce consensus semblent marquer ainsi ce que l’histoire pourrait un jour désigner comme le « tournant » de l’habiter en architecture. Il est maintenant permis d’envisager et de construire le portrait global de cette activité en usant de toutes les palettes de couleurs que comprend le spectre des facultés de l’esprit humain : la poétique (l’esthétique et la technique), la logique, la phénoménologie, l’herméneutique, la rhétorique, la mystique et, bien sûr, l’éthique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Cet ouvrage examine les fondements du mouvement de conservation architecturale moderne. Dans ce contexte, la création de la « Society for the Protection of Ancient Buildings » par William Morris est considéré comme le point culminant d’un processus historique qui mena à l’apparition du mouvement. Sa genèse est présentée comme ayant été le résultat d’une confrontation entre deux visions utopiques du moyen-âge; celle de l’Église Anglicane et celle de William Morris. Un survol détaillé des origines, des résultats et des effets de la « Renaissance Gothique » ouvre tout grand sur les sources littéraires, idéologiques et religieuses qui y donnèrent sa force. Les grands programmes de restaurations qui ont vu le jour en Angleterre à l’ère victorienne sont examinés en relation avec l’Église Anglicane et caractérisés par les motivations idéologiques de celle-ci. Bien que ce memoire ne réussit pas à démontré de manière sans équivoque que la création du mouvement de conservation architectural moderne par Morris fut essentiellement en reaction au programme idéologique de l’Église Anglicane au dix-neuvième siècle, nous y retrouvons néanmoins une réévaluation des causes et de l’impact de la « Renaissance Gothique » qui, de manière significative, allaient à l’encontre des croyances et des principes les plus chers à Morris. Il existe une quantité admirable d’ouvrages examinant les travaux et l’impact de William Morris en littérature et en arts, ainsi que son activisme socialiste. Cependant, il serait juste de constater qu’en comparaison, la grande contribution qu’il apporta à la protection de l’architecture patrimoniale a certainement été négligée dans les publications à son sujet. Ce projet de recherche examine les éléments et les conditions qui ont motivé Morris à créer un mouvement qui encore aujourd’hui continue de croitre en importance et en influence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peu de personnes se rappellent de la présence de la France en Inde. Quelques parties de l’Inde sont restées françaises jusqu’en 1954. À cette date, l’Inde française, consistant de quatre petits établissements (Pondichéry, Yanaon, Karikal et Mahé), était en pleine décadence et éclipsée par d’autres colonies françaises, plus grandes, plus lucratives et plus importantes pour la Métropole. L’Indochine et l’Algérie ne sont que deux exemples. Toutefois, les Français n’étaient pas disposés à abandonner leurs possessions en Inde sans résistance. Le présent mémoire cherche à expliquer la valeur des possessions françaises en Inde et les raisons de la fin de la tutelle française. Le titre du mémoire indique qu’un certain changement a eu lieu dans la politique française vis-à-vis de ses possessions en Inde. L’étude commence par un résumé de la situation politique et économique de l’Inde française depuis la fin de la dernière occupation anglaise en 1814 jusqu’à la fin de la Première Guerre mondiale. L’année 1920 est choisie comme point de départ de la période visée par le mémoire. Portant sur les années 1920, le premier chapitre examine l’hégémonie du parti Gaebelé qui a eu toutes les caractéristiques d’une dictature. Indifférentes à la vie politique de l’Inde française, les autorités métropolitaines étaient surtout attirées par le commerce que la colonie offrait dans la production de tissus et l’exportation d’arachides. Après la chute du parti Gaebelé, l’Inde française a été plongée dans une longue période d’agitation, un thème clé du deuxième chapitre sur les années 1930. Inconscientes de la réalité politique, les autorités métropolitaines ont toujours accordé la priorité au commerce. Durant les années 1940, l’Inde française n’a jamais arrêté de se rapprocher de l’Inde britannique. Ce rapprochement a aussi persisté lorsque l’Inde britannique est devenue l’Union indienne en 1947. Soudainement, les Français ont senti le besoin de réaffirmer leur position d’autorité en Inde française. Le commerce est passé au second plan au profit d’une série de réformes politiques. Toutefois, ce brusque changement de politique fut trop tardif. Le quatrième chapitre, centré surtout sur la période de 1950 à 1954 et vu à travers l’exemple d’Édouard Goubert, a souligné la méconnaissance des autorités métropolitaines des réalités qui confrontaient l’Inde française. Lorsque Goubert a cessé de servir comme porte-parole et principal allié du gouvernement français en Inde, les possessions françaises en Inde furent rattachées une par une à l’Union indienne. Rétrospectivement, les faits économiques, vitaux pour le début du mémoire, sont quasiment absents de deux derniers chapitres. Se retrouvant face à la menace de perdre leurs possessions en Inde, les Français ont compris que l’Inde française était précieuse pour des raisons autres que le commerce. Un accent particulier fut mis pour souligner ces avantages culturels et politiques. De petite taille, les possessions françaises étaient importantes pour l’ordre et la stabilité dans les autres colonies de l’Empire. Parallèlement, elles représentaient des points d’appui pour l’expansion de la culture française dans l’immense sous-continent indien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Toutes les photos présentes dans ce mémoire (sauf indication contraire) ont été réalisées par Dan Antonat (c).