946 resultados para Two-domain architecture
Resumo:
Palynomorphs from two siliciclastic margins were examined to gain insights into continental margin architecture. Sea level change is thought to be one of the primary controls on continental margin architecture. Because Late Neogene glacioeustasy has been well studied marine sediments deposited during the Late Neogene were examined to test this concept. Cores from the outer shelf and upper slope were taken from the New Jersey margin in the western North Atlantic Ocean and from the Sunda Shelf margin in the South China Sea. Continental margin architecture is often described in a sequence stratigraphic context. One of the main goals of both coring projects was to test the theoretical sequence stratigraphic models developed by a research group at Exxon (e.g. Wilgus et al., 1988). Palynomorphs provide one of the few methods of inferring continental margin architecture in monotonous, siliciclastic marine sediments where calcareous sediments are rare (e.g. New Jersey margin). In this study theoretical models of the palynological signature expected in sediment packages deposited during the various increments of a glacioeustatic cycle were designed. These models were based on the modem palynomorph trends and taphonomic factors thought to control palynomorph distribution. Both terrestrial (pollen and spores) and marine (dinocysts) palynomorphs were examined. The palynological model was then compared with New Jersey margin and Sunda Shelf margin sediments. The predicted palynological trends provided a means of identifying a complete cycle of glacioeustatic change (Oxygen Isotope Stage 5e to present) in the uppermost 80 meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea level change, is thought to be the major factor controlling margin architecture during the late Pleistocene here at the upper slope. This is likely a function of the glacial scouring of the continents which significantly increases sediment availability during glacial stages. The subaerially exposed continental shelf during the lowstand periods would have been subject to significant amounts of erosion fi:om the proglacial rivers flowing fi-om the southern regions of the ice-sheet. The slope site is non-depositional today and was also non-depositional during the last full interglacial period. The palynomorph data obtained fi-om the South China Sea indicate that the major difference between the New Jersey Margin sites and the Sunda Shelf margin sites is the variation in sediment supply and the rate of sediment accumulation. There was significantly less variation in sediment supply between glacial and interglacial periods and less overall sediment accumulation at the Sunda Shelf margin. The data presented here indicate that under certain conditions the theoretical palynological models allow the identification of individual sequence stratigraphic units and therefore, allow inferences regarding continental margin architecture. The major condition required in this approach is that a complete and reliable database of the contemporaneous palynomorphs be available.
Resumo:
Thylakoid membrane fractions were prepared from specific regions of thylakoid membranes of spinach (Spinacia oleracea). These fractions, which include grana (83), stroma (T3), grana core (8S), margins (Ma) and purified stroma (Y100) were prepared using a non-detergent method including a mild sonication and aqueous two-phase partitioning. The significance of PSlla and PSII~ centres have been described extensively in the literature. Previous work has characterized two types of PSII centres which are proposed to exist in different regions of the thylakoid membrane. a-centres are suggested to aggregate in stacked regions of grana whereas ~-centres are located in unstacked regions of stroma lamellae. The goal of this study is to characterize photosystem II from the isolated membrane vesicles representing different regions of the higher plant thylakoid membrane. The low temperature absorption spectra have been deconvoluted via Gaussian decomposition to estimate the relative sub-components that contribute to each fractions signature absorption spectrum. The relative sizes of the functional PSII antenna and the fluorescence induction kinetics were measured and used to determine the relative contributions of PSlla and PSII~ to each fraction. Picosecond chlorophyll fluorescence decay kinetics were collected for each fraction to characterize and gain insight into excitation energy transfer and primary electron transport in PSlla and PSII~ centres. The results presented here clearly illustrate the widely held notions of PSII/PS·I and PSlIa/PSII~ spatial separation. This study suggests that chlorophyll fluorescence decay lifetimes of PSII~ centres are shorter than those of PSlIa centres and, at FM, the longer lived of the two PSII components renders a larger yield in PSlIa-rich fractions, but smaller in PSIlr3-rich fractions.
Resumo:
The synthesis of 3-ethynylthienyl- (2.07), 3-ethynylterthienyl- (2.19) substituted qsal [qsalH = N-(8-quinolyl)salicylaldimine] and 3,3' -diethynyl-2,2' -bithienyl bridging bisqsal (5.06) ligands are described along with the preparation and characterization of eight cationic iron(III) complexes containing these ligands with a selection of counteranions [(2.07) with: SCN- (2.08), PF6- (2.09), and CI04- (2.10); (2.19) with PF6 - (2.20); (5.06) with: cr (5.07), SeN- (5.08), PF6- (5.09), and CI04- (5.10)]. Spin-crossover is observed in the solid state for (2.08) - (2.10) and (5.07) - (5.10), including a ve ry rare S = 5/2 to 3/2 spin-crossover in complex (2.09). The unusal reduction of complex (2.10) produces a high-spin iron(I1) complex (2.12). Six iron(II) complexes that are derived from thienyl analogues of bispicen [bispicen = bis(2-pyridylmethyl)-diamine] [2,5-thienyl substituents = H- (3.11), Phenyl- (3.12), 2- thienyl (3.13) or N-phenyl-2-pyridinalimine ligands [2,5-phenyl substituents = diphenyl (3.23), di(2-thienyl) (3.24), 4-phenyl substituent = 3-thienyl (3.25)] are reported Complexes (3.11), (3.23) and (3.25) display thermal spin-crossover in the solid state and (3.12) remains high-spin at all temperatures. Complex (3.13) rearranges to form an iron(II) complex (3.14) with temperature dependent magnetic properties be s t described as a one-dimensional ferromagnetic chain, with interchain antiferromagnetic interactions and/or ZFS dominant at low temperatures. Magnetic succeptibility and Mossbauer data for complex (3.24) display a temperature dependent mixture of spin isomers. The preparation and characterization of two cobalt(II) complexes containing 3- ethynylthienyl- (4.04) and 3-ethynylterhienyl- (4.06) substituted bipyridine ligands [(4.05): [Co(dbsqh(4.04)]; (4.07): [Co(dbsq)2(4.06)]] [dbsq = 3,5-dbsq=3,5-di-tert-butylI ,2-semiquinonate] are reported. Complexes (4.05) and (4.07) exhibit thermal valence tautomerism in the solid state and in solution. Self assembly of complex (2.10) into polymeric spheres (6.11) afforded the first spincrossover, polydisperse, micro- to nanoscale material of its kind. . Complexes (2.20), (3.24) and (4.07) also form polymers through electrochemical synthesis to produce hybrid metaUopolymer films (6.12), (6.15) and (6.16), respectively. The films have been characterized by EDX, FT-IR and UV-Vis spectroscopy. Variable-temperature magnetic susceptibility measurements demonstrate that spin lability is operative in the polymers and conductivity measurements confirm the electron transport properties. Polymer (6.15) has a persistent oxidized state that shows a significant decrease in electrical resistance.
Resumo:
As the complexity of evolutionary design problems grow, so too must the quality of solutions scale to that complexity. In this research, we develop a genetic programming system with individuals encoded as tree-based generative representations to address scalability. This system is capable of multi-objective evaluation using a ranked sum scoring strategy. We examine Hornby's features and measures of modularity, reuse and hierarchy in evolutionary design problems. Experiments are carried out, using the system to generate three-dimensional forms, and analyses of feature characteristics such as modularity, reuse and hierarchy were performed. This work expands on that of Hornby's, by examining a new and more difficult problem domain. The results from these experiments show that individuals encoded with those three features performed best overall. It is also seen, that the measures of complexity conform to the results of Hornby. Moving forward with only this best performing encoding, the system was applied to the generation of three-dimensional external building architecture. One objective considered was passive solar performance, in which the system was challenged with generating forms that optimize exposure to the Sun. The results from these and other experiments satisfied the requirements. The system was shown to scale well to the architectural problems studied.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
La leucémie lymphoblastique aigüe (LLA) est une maladie génétique complexe. Malgré que cette maladie hématologique soit le cancer pédiatrique le plus fréquent, ses causes demeurent inconnues. Des études antérieures ont démontrées que le risque à la LLA chez l’enfant pourrait être influencé par des gènes agissant dans le métabolisme des xénobiotiques, dans le maintient de l’intégrité génomique et dans la réponse au stress oxydatif, ainsi que par des facteurs environnementaux. Au cours de mes études doctorales, j’ai tenté de disséquer davantage les bases génétiques de la LLA de l’enfant en postulant que la susceptibilité à cette maladie serait modulée, au moins en partie, par des variants génétiques agissant dans deux voies biologiques fondamentales : le point de contrôle G1/S du cycle cellulaire et la réparation des cassures double-brin de l’ADN. En utilisant une approche unique reposant sur l’analyse d’une cohorte cas-contrôles jumelée à une cohorte de trios enfants-parents, j’ai effectué une étude d’association de type gènes/voies biologiques candidats. Ainsi, j’ai évaluer le rôle de variants provenant de la séquence promotrice de 12 gènes du cycle cellulaire et de 7 gènes de la voie de réparation de l’ADN, dans la susceptibilité à la LLA. De tels polymorphismes dans la région promotrice (pSNPs) pourraient perturber la liaison de facteurs de transcription et mener à des différences dans les niveaux d’expression des gènes pouvant influencer le risque à la maladie. En combinant différentes méthodes analytiques, j’ai évalué le rôle de différents mécanismes génétiques dans le développement de la LLA chez l’enfant. J’ai tout d’abord étudié les associations avec gènes/variants indépendants, et des essaies fonctionnels ont été effectués afin d’évaluer l’impact des pSNPs sur la liaison de facteurs de transcription et l’activité promotrice allèle-spécifique. Ces analyses ont mené à quatre publications. Il est peu probable que ces gènes de susceptibilité agissent seuls; j’ai donc utilisé une approche intégrative afin d’explorer la possibilité que plusieurs variants d’une même voie biologique ou de voies connexes puissent moduler le risque de la maladie; ces travaux ont été soumis pour publication. En outre, le développement précoce de la LLA, voir même in utero, suggère que les parents, et plus particulièrement la mère, pourraient jouer un rôle important dans le développement de cette maladie chez l’enfant. Dans une étude par simulations, j’ai évalué la performance des méthodes d’analyse existantes de détecter des effets fœto-maternels sous un design hybride trios/cas-contrôles. J’ai également investigué l’impact des effets génétiques agissant via la mère sur la susceptibilité à la LLA. Cette étude, récemment publiée, fût la première à démontrer que le risque de la leucémie chez l’enfant peut être modulé par le génotype de sa mère. En conclusions, mes études doctorales ont permis d’identifier des nouveaux gènes de susceptibilité pour la LLA pédiatrique et de mettre en évidence le rôle du cycle cellulaire et de la voie de la réparation de l’ADN dans la leucémogenèse. À terme, ces travaux permettront de mieux comprendre les bases génétiques de la LLA, et conduiront au développement d’outils cliniques qui amélioreront la détection, le diagnostique et le traitement de la leucémie chez l’enfant.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
L’identité en projets : ville, architecture et patrimoine. Analyse de concours à Québec et à Toronto
Resumo:
Dans un contexte de globalisation et de profusion des discours identitaires, la thèse examine le concept d’identité, ses définitions et ses usages dans les débats et les pratiques de la ville, de l’architecture et du patrimoine. Les interventions sur un bâtiment historique révèlent autant le rapport identitaire de la société avec son histoire que celui avec le monde contemporain. La recherche traite de concours d’architecture dans deux villes canadiennes qui aspirent à se positionner à l’échelle internationale, l’une focalisant sur l’aspect contemporain global et l’autre sur l’aspect historique et local. L’objectif de la recherche est d’une part de contribuer au dévoilement du processus de construction identitaire des villes contemporaines à travers les projets d’architecture. D’autre part, il s’agit d’analyser le processus d’identification et l’identité architecturale dans son rapport à l’histoire et à la contemporanéité dans la pratique au sein de bâtiments historiques. La ville devient un objet de communication, qui use de marketing urbain, pour augmenter sa visibilité. L’architecture devient un moyen de communication utilisé pour transmettre une identité visuelle. La méthodologie combine l’analyse des discours, ainsi que l’analyse de l’architecture et de sa représentation. Le choix du concours du Centre d'accueil et d'interprétation de la Place-Royale à Québec (1996) et de l’agrandissement du Musée royal d’Ontario (2001) à Toronto permet d’appréhender les différentes facettes du concept d’identité et de révéler les enjeux locaux et internationaux. Le fait qu’il s’agisse de concours donne accès à un corpus de discours qui comprend les programmes, les politiques de la ville, les présentations des architectes et la réception. L’histoire de chaque concours ainsi que l’analyse sémantique des discours de la commande éclairent le rapport entre les processus et les intentions et permettent de mettre en lumière les enjeux locaux. L’analyse des discours textuels et visuels des architectes dévoile le processus d’identification des projets, les différents types de référents impliqués ainsi que les stratégies de communication employées. L’analyse des projets rend compte des caractéristiques de l’identité de l’architecture contemporaine et son rapport avec le patrimoine. La recherche dévoile l’importance des discours et de la communication dans la construction identitaire des villes en amont des concours ainsi que le débat sociétal que la question pose. Durant le processus d’identification architecturale, le biais induit par la commande amène une emphase et une surenchère des discours historiques par les architectes dans le cas de Québec. Les projets proposés misent sur une mise en scène de la ville historique et du patrimoine et focalisent sur l’expérience visuelle des visiteurs. Dans le cas de Toronto, l’intérêt pour l’aspect global et spectaculaire dans la construction identitaire de la ville en amont du concours, génère un engouement pour une représentation attractive des projets et pour une architecture iconique.
Resumo:
À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
Le ribozyme VS de Neurospora catalyse des réactions de clivage et de ligation d’un lien phosphodiester spécifique essentielles à son cycle de réplication. Il est formé de six régions hélicales (I à VI), qui se divisent en deux domaines, soit le substrat (SLI) et le domaine catalytique (tiges II à VI). Ce dernier comprend deux jonctions à trois voies qui permettent de reconnaître le substrat en tige-boucle de façon spécifique. Ce mode de reconnaissance unique pourrait être exploité pour cibler des ARN repliés pour diverses applications. Bien que le ribozyme VS ait été caractérisé biochimiquement de façon exhaustive, aucune structure à haute résolution du ribozyme complet n’a encore été publiée, ce qui limite la compréhension des mécanismes inhérents à son fonctionnement. Précédemment, une approche de divide-and-conquer a été initiée afin d’étudier la structure des sous-domaines importants du ribozyme VS par spectroscopie de résonance magnétique nucléaire (RMN) mais doit être complétée. Dans le cadre de cette thèse, les structures de la boucle A730 et des jonctions III-IV-V et II-III-VI ont été déterminées par spectroscopie RMN hétéronucléaire. De plus, une approche de spectroscopie RMN a été développée pour la localisation des ions divalents, tandis que diverses approches de marquage isotopique ont été implémentées pour l’étude d’ARN de plus grandes tailles. Les structures RMN de la boucle A730 et des deux jonctions à trois voies révèlent que ces sous-domaines sont bien définis, qu’ils sont formés de plusieurs éléments structuraux récurrents (U-turn, S-turn, triplets de bases et empilement coaxial) et qu’ils contiennent plusieurs sites de liaison de métaux. En outre, un modèle du site actif du ribozyme VS a été construit sur la base des similarités identifiées entre les sites actifs des ribozymes VS et hairpin. Dans l’ensemble, ces études contribuent de façon significative à la compréhension de l’architecture globale du ribozyme VS. De plus, elles permettront de construire un modèle à haute résolution du ribozyme VS tout en favorisant de futures études d’ingénierie.