52 resultados para Ambiguïté architecturale
Resumo:
L’autorisation de recourir à la force est une pratique par laquelle le Conseil de sécurité permet à des États membres des Nations Unies ou à des accords ou organismes régionaux, voire au Secrétaire général des Nations Unies de recourir à la coercition militaire. Elle est l’une des circonstances excluant l’illicéité face à l’interdiction de recourir à la force dans les relations internationales dont la règle est posée à l’article 2,§ 4 de la Charte des Nations Unies. Il est évident que cette pratique ne correspond pas clairement à la lettre de la Charte mais elle tire sa légitimité du fait qu’elle permet au Conseil de sécurité de s’acquitter de sa mission principale de maintien de la paix et de la sécurité internationales, étant donné que le système de coercition militaire prévu par la Charte s’avère inapplicable dans la pratique. Il reste que cette pratique est empreinte d’ambiguïté : elle apparaît tantôt comme une intervention des Nations Unies, tantôt comme une action unilatérale au profit de certaines puissances capables de mener des opérations de grande envergure. Cette ambiguïté est encore exacerbée par le problème de l’autorisation présumée que certainsÉtats pourraient déduire des actes du Conseil de sécurité, pour intervenir dans divers conflits. Dans les faits, la pratique de l’autorisation de recourir à la force semble actualiser une tendance belliciste qui caractérisait les époques antérieures. Elle peut, si l’on n’y prend garde, refondre, par pans entiers, les legs du droit contre la guerre (jus contra bellum) issu du XXème siècle, droit qui a été le fruit de longues tribulations dans l’histoire des relations internationales. Le danger le plus grave est que des acquis chèrement négociés risquent d’être jetés par-dessus bord avec trop de facilité et sans délai, pour servir des visées à court terme.
Resumo:
Nous avons démontré l’utilité du groupement protecteur tert-butylsulfonyle (N-Bus) pour la chimie des acides aminés et des peptides. Celui-ci est préparé en deux étapes, impliquant la réaction d’une amine avec le chlorure de tert-butylsulfinyle, suivie par l’oxydation par du m-CPBA, pour obtenir les tert-butylsulfonamides correspondants avec d’excellents rendements. Le groupement N-Bus peut être clivé par traitement avec 0.1 N TfOH/DCM/anisole à 0oC en 10h pour régénérer le sel d’ammonium. Une variété d’acides aminés N-Bus protégés ainsi que d’autres aminoacides peuvent alors être utilisés pour préparer divers dipeptides et tripeptides. A l’exception du groupe N-Fmoc, les conditions de déprotection du groupe N-Bus clivent également les groupements N-Boc, N-Cbz et O-Bn. Une déprotection sélective et orthogonale des groupes N-Boc, N-Cbz, N-Fmoc et O-Bn est également possible en présence du groupe protecteur N-Bus. Le nouvel acide aminé non-naturel (3R, 2R) 3–méthyl-D-leucine (β-Me-Leu) et son régioisomère 2-méthyle ont été synthétisés par ouverture d’une N-Ts aziridine en présence d’un excès de LiMe2Cu. Chacun des régioisomères du mélange (1:1,2) a été converti en la méthylleucine correspondante, puis couplé à l’acide D-phényllactique puis au motif 2-carboxyperhydroindole 4-amidinobenzamide en présence de DEPBT. Des élaborations ultérieures ont conduit à des analogues peptidiques non-naturels d’aeruginosines telles que la chlorodysinosine A. Les deux analogues ont ensuite été évalués pour leur activité inhibitrice de la thrombine et la trypsine. La présumée aeruginosine 3-sulfate 205B et son anomère β ont été synthétisés avec succès à partir de 5 sous-unités : la 3-chloroleucine, l’acide D-phényllactique, le D-xylose, le 2-carboxy-6-hydroxyoctahydroindole et l’agmatine. La comparaison des données RMN 1H et 13C reportées avec celles obtenues avec l’aeruginosine synthétique 205B révèle une différence majeure pour la position du groupe présumé 3'-sulfate sur l’unité D-xylopyranosyle. Nous avons alors synthétisés les dérivés méthyl-α-D-xylopyranosides avec un groupement sulfate à chacune des positions hydroxyles, afin de démontrer sans ambiguïté la présence du sulfate en position C-4' par comparaison des données spectroscopiques RMN 1H et 13C. La structure de l’aeruginosine 205B a alors été révisée. Une des étapes-clés de cette synthèse consiste en la formation du glycoside avec le groupe hydroxyle en C-6 orienté en axial sur la sous-unité Choi. Le 2-thiopyridylcarbonate s’est avéré une méthode efficace pour l’activation anomérique. Le traitement par AgOTf et la tétraméthylurée en solution dans un mélange éther-DCM permet d’obtenir l’anomère α désiré, qui peut alors être aisément séparé de l’anomère β par chromatographie
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
Résumé Cet ouvrage examine les fondements du mouvement de conservation architecturale moderne. Dans ce contexte, la création de la « Society for the Protection of Ancient Buildings » par William Morris est considéré comme le point culminant d’un processus historique qui mena à l’apparition du mouvement. Sa genèse est présentée comme ayant été le résultat d’une confrontation entre deux visions utopiques du moyen-âge; celle de l’Église Anglicane et celle de William Morris. Un survol détaillé des origines, des résultats et des effets de la « Renaissance Gothique » ouvre tout grand sur les sources littéraires, idéologiques et religieuses qui y donnèrent sa force. Les grands programmes de restaurations qui ont vu le jour en Angleterre à l’ère victorienne sont examinés en relation avec l’Église Anglicane et caractérisés par les motivations idéologiques de celle-ci. Bien que ce memoire ne réussit pas à démontré de manière sans équivoque que la création du mouvement de conservation architectural moderne par Morris fut essentiellement en reaction au programme idéologique de l’Église Anglicane au dix-neuvième siècle, nous y retrouvons néanmoins une réévaluation des causes et de l’impact de la « Renaissance Gothique » qui, de manière significative, allaient à l’encontre des croyances et des principes les plus chers à Morris. Il existe une quantité admirable d’ouvrages examinant les travaux et l’impact de William Morris en littérature et en arts, ainsi que son activisme socialiste. Cependant, il serait juste de constater qu’en comparaison, la grande contribution qu’il apporta à la protection de l’architecture patrimoniale a certainement été négligée dans les publications à son sujet. Ce projet de recherche examine les éléments et les conditions qui ont motivé Morris à créer un mouvement qui encore aujourd’hui continue de croitre en importance et en influence.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.
Resumo:
Les débats éthiques sur l’architecture ont traditionnellement abordé trois thématiques récurrentes : la beauté, la solidité et l’utilité de l’œuvre architecturale. Plus récemment, les nouvelles connaissances provenant du domaine de la gestion des projets et du développement durable ont apporté d’importantes contributions à la compréhension de la gouvernance de projets. Cependant, la démarche de réalisation des projets d’architecture est tributaire des caractéristiques propres à l’industrie du bâtiment; une industrie qui fonctionne grâce à la mise en place d’équipes temporaires formées par des organisations hautement spécialisées. L’analyse systémique d’études de cas permet d’identifier la complexité des équipes qui interviennent dans les projets d’architecture. Nous examinons dans cet article trois caractéristiques de l’industrie du bâtiment : (i) la complexité organisationnelle du donneur d’ouvrage, (ii) l’influence des parties prenantes, et (iii) les divers niveaux de proximité entre l’architecte et les usagers. L’identification des diverses configurations organisationnelles met en évidence les effets de ces caractéristiques sur les relations formelles et informelles entre l’architecte et les donneurs d’ouvrage ainsi que celles entre toutes les parties prenantes. L’architecte est contraint de travailler sur un projet qui devient, de plus en plus, l’objet de négociation entre les diverses parties prenantes. Face à ce défi, il doit tenir compte de la complexité des relations entre tous les acteurs au sein du système social du projet et créer les scénarios adéquats à la participation, à la négociation et aux échanges entre eux.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
C'est avec beaucoup de complexité et d'ambiguïté que les opérations de la paix des Nations Unies se sont déployées sur la scène internationale au cours des dernières décennies. Si le déploiement de ces opérations reflète avant tout la matérialisation de l’un des buts fondamentaux de l’ONU, à savoir : le maintien de la paix et de la sécurité internationale (Article 1(1) de la Charte des Nations Unies), il n'en reste pas moins manifeste que les actions qu’elles entreprennent sur le terrain sont susceptibles de produire des effets préjudiciables pour les tiers. La question que pose le présent mémoire est donc de savoir si, et dans quelle mesure, la responsabilité de l'ONU est régie par le droit international lorsque des tiers subissent des dommages matériels et corporels du fait des troupes des opérations de paix des Nations Unies. Que prévoit le droit international ? Existe-t-il pour les victimes des voies de réparations ? S’interroger sur la responsabilité de l’ONU suppose que l’on tienne compte avant tout de sa personnalité juridique internationale, car l’existence juridique de l’Organisation universelle constitue le postulat primaire sur lequel sera fondée sa responsabilité internationale. L’avis consultatif de la Cour Internationale de Justice du 11 avril 1949 sur la Réparation des dommages subis au service des Nations Unies représente le moment précis de cette personnification de l’ONU sur la scène internationale. D’un point de vue plus substantiel, les contours de la responsabilité onusienne dans le contexte du maintien de la paix se dessineront autour d’un élément central : « le fait internationalement illicite ». Celui-ci comprend deux éléments; d’une part, un élément objectif consistant en un comportement précis (action ou omission)violant une obligation internationale; et, d’autre part, un élément subjectif attribuant à l’Organisation ce manquement au droit international. Cette ossature de la responsabilité onusienne permettra d’appréhender de façon plus précise dans quelle mesure l’Organisation pourrait être tenue responsable de ses actes ou omissions dans le contexte du maintien de la paix. Plus encore, elle nous permet de plaider pour une responsabilité intégrée tenant compte des facteurs endogènes propres à toute situation, mais aussi faisant de l’individu dans le droit international des sujets dont les intérêts sont susceptibles de protection juridique.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.
Resumo:
La conception architecturale du logis, individuel ou collectif, est un défi majeur pour les architectes depuis l'avènement de la modernité. Au début du 21ième siècle, la multiplicité des conditions démographiques et celle de la mobilité des personnes sous-tendent la complexité de l'élaboration de prototypes ou de modèles d'habitation. Que peut-on apprendre des expériences menées dans ce domaine après la seconde guerre mondiale aux États-Unis ? Ce mémoire de maîtrise est consacré à l'étude d’un cas particulier celui du programme de création architecturale réalisée en Californie de 1945 à 1966, connu sous le nom de : «Case Study House Program». Ce programme, dirigé par John Entenza, éditeur de la revue Arts and Architecture, rassemblait de nombreux architectes dont les plus célèbres sont Charles et Ray Eames, Richard Neutra, Craig Ellwood et Pierre Koenig, tous auteurs de maisons modernes devenues oeuvres canoniques dans l’histoire de l’architecture. L'analyse détaillé de ce cas et de ses retombées devrait permettre de mieux cerner les aspects suivants: la portée critique du CSHP (case study house program) qui s'opposait aux modèles dominants du marché immobilier, modèles généralement inspirés de styles traditionnels; le potentiel et les limites d'une telle démarche face à la demande sociale; la dimension anticipatrice des propositions du CSHP pour la conception de logis mieux adaptés aux besoins du 21ième siècle, en particulier ceux qui découlent des changements démographiques et de la mobilité géographiques des personnes; la valeur d'exemple du CSHP pour mieux comprendre les fondements de la résistance du public aux innovations architecturales, autant du point de vue technique que du point de vue esthétique.
Resumo:
La langue de travail s’avère être un des principaux indicateurs de la langue d’usage publique et de l’intégration linguistique des immigrants. Au Québec, et plus particulièrement dans la RMR de Montréal, les pressions démographiques ainsi que celles posées par le statut de la langue anglaise, la mondialisation et l’utilisation de la technologie entraînent une ambiguïté quant à la nécessité de l’utilisation du français au travail. Or, cette étude porte sur la langue de travail de la population immigrante qui travaille dans la RMR de Montréal. Les analyses effectuées permettent de dresser un portrait de la langue de travail des immigrants en 2006, avec, par la suite, une mise en évidence des variables associées aux choix linguistiques des immigrants sur le marché du travail et ce, à l’aide de données tirées du recensement canadien de 2006. Les analyses descriptives réalisées démontrent que la scolarité, le pays de provenance, le contexte social québécois au moment de l’immigration et les variables linguistiques des immigrants sont les variables les plus fortement liées à l’utilisation du français, de l’anglais ou du bilinguisme au travail en 2006. Ces mêmes variables, dans les analyses explicatives, se révèlent également être les facteurs les plus fortement associés aux choix linguistiques des immigrants sur le marché du travail de la RMR de Montréal. Enfin, une étude comme celle-ci permet de constater la situation de la langue de travail chez les immigrants et, si nécessaire, de suggérer des changements aux politiques et règlements encadrant l’immigration et l’intégration linguistiques des immigrants.