999 resultados para BURROW ARCHITECTURE
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
L’identité en projets : ville, architecture et patrimoine. Analyse de concours à Québec et à Toronto
Resumo:
Dans un contexte de globalisation et de profusion des discours identitaires, la thèse examine le concept d’identité, ses définitions et ses usages dans les débats et les pratiques de la ville, de l’architecture et du patrimoine. Les interventions sur un bâtiment historique révèlent autant le rapport identitaire de la société avec son histoire que celui avec le monde contemporain. La recherche traite de concours d’architecture dans deux villes canadiennes qui aspirent à se positionner à l’échelle internationale, l’une focalisant sur l’aspect contemporain global et l’autre sur l’aspect historique et local. L’objectif de la recherche est d’une part de contribuer au dévoilement du processus de construction identitaire des villes contemporaines à travers les projets d’architecture. D’autre part, il s’agit d’analyser le processus d’identification et l’identité architecturale dans son rapport à l’histoire et à la contemporanéité dans la pratique au sein de bâtiments historiques. La ville devient un objet de communication, qui use de marketing urbain, pour augmenter sa visibilité. L’architecture devient un moyen de communication utilisé pour transmettre une identité visuelle. La méthodologie combine l’analyse des discours, ainsi que l’analyse de l’architecture et de sa représentation. Le choix du concours du Centre d'accueil et d'interprétation de la Place-Royale à Québec (1996) et de l’agrandissement du Musée royal d’Ontario (2001) à Toronto permet d’appréhender les différentes facettes du concept d’identité et de révéler les enjeux locaux et internationaux. Le fait qu’il s’agisse de concours donne accès à un corpus de discours qui comprend les programmes, les politiques de la ville, les présentations des architectes et la réception. L’histoire de chaque concours ainsi que l’analyse sémantique des discours de la commande éclairent le rapport entre les processus et les intentions et permettent de mettre en lumière les enjeux locaux. L’analyse des discours textuels et visuels des architectes dévoile le processus d’identification des projets, les différents types de référents impliqués ainsi que les stratégies de communication employées. L’analyse des projets rend compte des caractéristiques de l’identité de l’architecture contemporaine et son rapport avec le patrimoine. La recherche dévoile l’importance des discours et de la communication dans la construction identitaire des villes en amont des concours ainsi que le débat sociétal que la question pose. Durant le processus d’identification architecturale, le biais induit par la commande amène une emphase et une surenchère des discours historiques par les architectes dans le cas de Québec. Les projets proposés misent sur une mise en scène de la ville historique et du patrimoine et focalisent sur l’expérience visuelle des visiteurs. Dans le cas de Toronto, l’intérêt pour l’aspect global et spectaculaire dans la construction identitaire de la ville en amont du concours, génère un engouement pour une représentation attractive des projets et pour une architecture iconique.
Les navires vikings : conception géométrique et architecture traditionnelle au Moyen Âge scandinave.
Resumo:
Selon l’image reçue des Vikings, ce peuple incarne l'esprit d’une immense solidarité primitive ayant su résister rudement au joug du christianisme et à la domination du Latin en Europe occidentale. Cette image n’est pas sans ses contradictions et, s’il est vrai que l’écriture était encore inconnue en Scandinavie durant les premiers siècles de l’expansion viking, on sait maintenant que le commerce et la colonisation, autant que les célèbres raids, motivèrent l’irruption des peuples scandinaves sur la scène médiévale. Quant aux navires de ces marchands, colonisateurs, pêcheurs et guerriers, ils apparaissent, un peu à l’image des Vikings eux-mêmes, sur le grand tableau de l’histoire nautique sous l’enseigne d’une originalité et d’une technicité sans parallèle. Comment les Vikings construisaient-ils leurs navires, en leur donnant une symétrie, un équilibre et une finesse si achevés? Les premiers ethnologues qui se sont intéressés à cette question ont privilégié les idées issues d'une tradition acquise par des générations de constructeurs, et d'astuces simples pour équilibrer tribord et bâbord. Puis, ils se sont rapidement tournés vers les techniques inhérentes à la construction à clin : utilisation de planches fendues et non sciées et de rivets abondants témoignant d’une sidérurgie acquise depuis peu. Le problème que présentent ces navires, est que leur construction artisanale demeure conforme à l’image reçue des Vikings, mais que leur conception architecturale, réalisée selon des connaissances théoriques très exactes, brise la notion d’une Scandinavie médiévale illettrée et coupée des grands centres du savoir. Ce travail s’intéresse précisément à la conception architecturale des navires scandinaves du VIIIe au XIe siècle pour montrer comment ils s’insèrent dans un haut savoir européen dès leur apparition. Il explore ensuite les liens qui unissent ce savoir théorique aux aspects véritablement originaux des navires vikings, en l’occurrence leur construction à clin et leur homogénéité sur une grande région à travers plus de cinq siècles. Au terme de cette recherche, l'analyse réalisée sur le maître-couple de trois épaves vikings, une épave antique et une épave scandinave pré-viking, a permis de mettre en évidence plusieurs indices de l'utilisation du système de conception géométrique apparaissant pour la première fois dans les traités d'architecture navale de la Renaissance, et ce, sur chacune de ces épaves. Les résultats obtenus démontrent qu'il est possible d'employer un système transversal de conception pour des navires vraisemblablement construits bordé premier et assemblés à clin.
Resumo:
Contexte : L’anémie falciforme ou drépanocytose est un problème de santé important, particulièrement pour les patients d’origine africaine. La variation phénotypique de l’anémie falciforme est problématique pour le suivi et le traitement des patients. L’architecture génomique responsable de cette variabilité est peu connue. Principe : Mieux saisir la contribution génétique de la variation clinique de cette maladie facilitera l’identification des patients à risque de développer des phénotypes sévères, ainsi que l’adaptation des soins. Objectifs : L’objectif général de cette thèse est de combler les lacunes relatives aux connaissances sur l’épidémiologie génomique de l’anémie falciforme à l’aide d’une cohorte issue au Bénin. Les objectifs spécifiques sont les suivants : 1) caractériser les profils d’expressions génomiques associés à la sévérité de l’anémie falciforme ; 2) identifier des biomarqueurs de la sévérité de l’anémie falciforme ; 3) identifier la régulation génétique des variations transcriptionelles ; 4) identifier des interactions statistiques entre le génotype et le niveau de sévérité associé à l’expression ; 5) identifier des cibles de médicaments pour améliorer l’état des patients atteints d’anémie falciforme. Méthode : Une étude cas-témoins de 250 patients et 61 frères et soeurs non-atteints a été menée au Centre de Prise en charge Médical Intégré du Nourrisson et de la Femme Enceinte atteints de Drépanocytose, au Bénin entre février et décembre 2010. Résultats : Notre analyse a montré que des profils d’expressions sont associés avec la sévérité de l’anémie falciforme. Ces profils sont enrichis de génes des voies biologiques qui contribuent à la progression de la maladie : l’activation plaquettaire, les lymphocytes B, le stress, l’inflammation et la prolifération cellulaire. Des biomarqueurs transcriptionnels ont permis de distinguer les patients ayant des niveaux de sévérité clinique différents. La régulation génétique de la variation de l’expression des gènes a été démontrée et des interactions ont été identifiées. Sur la base de ces résultats génétiques, des cibles de médicaments sont proposées. Conclusion: Ce travail de thèse permet de mieux comprendre l’impact de la génomique sur la sévérité de l’anémie falciforme et ouvre des perspectives de développement de traitements ciblés pour améliorer les soins offerts aux patients.
Resumo:
La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.
Resumo:
Le progrès scientifique et technologique n'est pas sans faille – les conséquences imprévues de son application peuvent causer de nouveaux problèmes. Tel est le constat machiavélien sur lequel est fondé le projet En imparfaite santé : la médicalisation de l'architecture du Centre Canadien d'Architecture (2011-2012), présenté sous forme d'exposition et de catalogue. Ce mémoire étudie comment les deux plateformes, la première étant expérientielle et la seconde théorique, formulent une critique du processus de la médicalisation actuelle, lequel est entré dans le champ de l'architecture contemporaine. L’exposition est approchée comme discours et comme installation d’objets pour un public; une attention particulière est alors portée à la scénographie et au parcours du visiteur. D’autres réflexions ont pour objet le graphisme, un outil soutenant le leitmotiv de confrontation. Dans l’étude du catalogue, l’accent est mis sur l’essai d’introduction, qui est implicitement traversé par le concept fondamentalement ambivalent de pharmakon. Le péritexte, l’encadrement physique du contenu principal de l’ouvrage, est aussi examiné. Ensuite, l’analyse comparative propose que chaque plateforme véhicule un propos différent, une stratégie rendue possible par l’ambivalence de la notion de corps, entendue littéralement et métaphoriquement. La conclusion finale du mémoire esquisse une courte proposition de contextualisation, autant de cette dualité que de la remise en question de l’autorité du discours techno-scientifique. Bien qu’En imparfaite santé dirige sa critique envers la persistance de la vision moderniste de l'architecture, nous avançons que le projet concerne tout autant, sinon plus, l'omniprésence actuelle du numérique. Ce dernier, à l’instar de l’architecture moderne, ne modifie pas seulement la conception du corps humain et architectural, il renforce également une croyance positiviste dans la technologie qui n'est pas toujours contrebalancée par la pensée critique.
Resumo:
Depuis la publication de l’Utopia de Thomas More au XVIe siècle, la notion d’utopie s’est vue appropriée par différents domaines d’expression artistique. Bien vite, l’architecture et l’urbanisme en font leur apanage lorsqu’il est question de concilier, en des dessins et des plans, des sociétés idéalisées et leurs représentations. La modernité et les nouvelles technologies modifient les modalités de l’utopie qui tend alors vers l’actualisation de ses modèles en des projets construits. Le XXe siècle est aussi marqué par une abondance de formes et d’idées dont la transmission et le partage sont accélérés par la création de nouveaux médias. Si les années 1960 et 1970 sont le lieu d’émergence de formes expérimentales et de projets utopiques, notamment alimentés par la Révolution tranquille et Mai 68, il est encore difficile au Québec de retracer ces projets en arts et en architecture puisqu’ils sont peu documentés. Par l’étude de la pratique artistique d’Yvette Bisson (1926-), de Robert Roussil (1925-2013) et de Melvin Charney (1935-2012), ce mémoire propose d’observer les différentes tactiques d’appropriation de l’espace auxquelles s’apparentent les modalités de la sculpture de ces trois artistes. Par l’intermédiaire de Michel de Certeau, Henri Lefebvre et Louis Marin, nous chercherons à expliquer quelle est la teneur critique des imaginaires mis en œuvre par les trois artistes pour créer de nouveaux lieux utopiques de la sculpture.
Effect of Polymer Architecture on the Structural and Biophysical Properties of PEG-PLA Nanoparticles
Resumo:
Polymers made of poly(ethylene glycol) chains grafted to poly(lactic acid) chains (PEG-g-PLA) were used to produce stealth drug nanocarriers. A library of comb-like PEG-g-PLA polymers with different PEG grafting densities was prepared in order to obtain nanocarriers with dense PEG brushes at their surface, stability in suspension, and resistance to protein adsorption. The structural properties of nanoparticles (NPs) produced from these polymers by a surfactant-free method were assessed by DLS, zeta potential, and TEM and were found to be controlled by the amount of PEG present in the polymers. A critical transition from a solid NP structure to a soft particle with either a “micelle-like” or “polymer nano-aggregate” structure was observed when the PEG content was between 15 to 25% w/w. This structural transition was found to have a profound impact on the size of the NPs, their surface charge, their stability in suspension in presence of salts as well as on the binding of proteins to the surface of the NPs. The arrangement of the PEG-g-PLA chains at the surface of the NPs was investigated by 1H NMR and X-ray photoelectron spectroscopy (XPS). NMR results confirmed that the PEG chains were mostly segregated at the NP surface. Moreover, XPS and quantitative NMR allowed quantifying the PEG chain coverage density at the surface of the solid NPs. Concordance of the results between the two methods was found to be remarkable. Physical-chemical properties of the NPs such as resistance to aggregation in saline environment as well as anti-fouling efficacy were related to the PEG surface density and ultimately to polymer architecture. Resistance to protein adsorption was assessed by isothermal titration calorimetry (ITC) using lysozyme. The results indicate a correlation between PEG surface coverage and level of protein interactions. The results obtained lead us to propose such PEG-g-PLA polymers for nanomedecine development as an alternative to the predominant polyester-PEG diblock polymers.
Resumo:
We developed a nanoparticles (NPs) library from poly(ethylene glycol)–poly lactic acid comb-like polymers with variable amount of PEG. Curcumin was encapsulated in the NPs with a view to develop a delivery platform to treat diseases involving oxidative stress affecting the CNS. We observed a sharp decrease in size between 15 and 20% w/w of PEG which corresponds to a transition from a large solid particle structure to a “micelle-like” or “polymer nano-aggregate” structure. Drug loading, loading efficacy and release kinetics were determined. The diffusion coefficients of curcumin in NPs were determined using a mathematical modeling. The higher diffusion was observed for solid particles compared to “polymer nano-aggregate” particles. NPs did not present any significant toxicity when tested in vitro on a neuronal cell line. Moreover, the ability of NPs carrying curcumin to prevent oxidative stress was evidenced and linked to polymer architecture and NPs organization. Our study showed the intimate relationship between the polymer architecture and the biophysical properties of the resulting NPs and sheds light on new approaches to design efficient NP-based drug carriers.
Resumo:
Department of Mathematics, Cochin University of Science and Technology
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.