40 resultados para Orientation-Preserving Transformations

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le théorème ergodique de Birkhoff nous renseigne sur la convergence de suites de fonctions. Nous nous intéressons alors à étudier la convergence en moyenne et presque partout de ces suites, mais dans le cas où la suite est une suite strictement croissante de nombres entiers positifs. C’est alors que nous définirons les suites uniformes et étudierons la convergence presque partout pour ces suites. Nous regarderons également s’il existe certaines suites pour lesquelles la convergence n’a pas lieu. Nous présenterons alors un résultat dû en partie à Alexandra Bellow qui dit que de telles suites existent. Finalement, nous démontrerons une équivalence entre la notion de transformatiuon fortement mélangeante et la convergence d'une certaine suite qui utilise des “poids” qui satisfont certaines propriétés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jacques Commaille, Directeur, GAPP (Groupe d’analyse des politiques publiques), Professeur, École Normale Supérieure de Cachan, Département de Sciences Sociales

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Although some are excited about the possibility of using current scientific research into the biological causes of sexual orientation to ground rights claims, I argue that basing rights claims on this research is unwise because this research, specifically the hormonal, genetic, and structural research, is organized around the inversion assumption, a conceptual scheme within which some aspect of the biology of gay men and lesbians is thought to be inverted along sex lines.While there are many reasons to worry about the use of the inversion assumption, I focus on problems that arise from a further set of claims that must be assumed in order to make the use of the inversion assumption coherent. This further set of assumptions includes the claims (1) that heterosexuality is the standard state and that (2) this standard state is sexually-dimorphic and (3) deterministic. I argue that this set of assumptions is problematic because it results in ideological consequences that are both sexist and heterosexist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durant le dernier demi-siècle, la religion, comme tous les autres domaines d’activité humaine, a connu plusieurs transformations importantes. La diminution considérable, durant cette période, de la pratique religieuse institutionnalisée est accompagnée de l’apparition d’une multitude de nouvelles formes de spiritualités qui tentent de répondre aux besoins religieux de l’homme occidental. Parmi les multiples manifestations de ce genre, on découvre une spiritualité distincte, appelée néo-chamanisme ou chamanisme urbain, réunissant de nombreuses pratiques contemporaines qui se définissent comme chamaniques. Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’étude du phénomène néo-chamanique de Michael Harner, ex-professeur et directeur du département d’anthropologie au Graduate Faculty of the New School for Social Research à New York, et fondateur de la Foundation for Shamanic Studies (à l’avenir : FSS). La présente recherche a pour but d’analyser le néo-chamanisme de Harner et de définir sa place parmi les nouvelles formes de religiosités. La théorie de la recomposition du religieux de Danièle Hervieu-Léger sert de cadre d’analyse pour cette nouvelle forme de spiritualité. Dans la première partie, nous traitons le phénomène religieux contemporain sous l’angle socioreligieux. Nous présentons un aperçu global des transformations que celui-ci subit en modernité sous l’impact de la sécularisation. À l’aide de la théorie des nouvelles formes religieuses de Danièle Hervieu-Léger, nous mettons en lumière les principales règles selon lesquelles une nouvelle configuration du religieux se déploie dans le contexte occidental contemporain. Dans la seconde partie, nous examinons le chamanisme traditionnel sous l’angle anthropologique. Nous faisons la lecture d’études classiques sur le chamanisme. Il apparaît que le chamanisme classique est communautaire, réservé à quelques personnes choisies par les esprits et que le processus laborieux d’initiation permettant d’accéder à cette fonction implique certains éléments spécifiques parmi lesquels on compte la maladie initiatique, la mort rituelle et la résurrection de la personne. Dans la troisième partie, nous examinons le néo-chamanisme de Harner. Nous rendons compte de son ouvrage majeur La voie spirituelle du chamane : Le Secret d'un sorcier indien d’Amérique du Nord et nous examinons l’expérience chamanique de la Foundation for Shamanic Studies (FSS). Il se dégage de cette étude que l’approche de Harner se veut l’expression d’un chamanisme fondamental et universel adapté à la société contemporaine. La pratique néo-chamanique de Harner se focalise sur le voyage chamanique et sur le contact avec le monde des esprits comme des éléments qui sont au cœur du chamanisme traditionnel. C’est une pratique axée principalement sur l’individu à des fins d’accomplissement de soi et d’(auto)guérison. Elle attire généralement des personnes dont le niveau de scolarité est élevé, disposées à payer pour les services fournis par la fondation. À la fin de notre étude, nous dégageons les conclusions générales suivantes : le néo-chamanisme de Harner s’éloigne de la tradition chamanique et la transforme en une spiritualité nouvelle adaptée aux besoins des Occidentaux; il reflète les transformations subies par le fait religieux pendant la période moderne; il s’adresse principalement à un public en quête de services spirituels ciblés et ponctuels et il favorise une forme de communalisation temporaire et intense; cependant, l’individuation de la pratique chamanique est porteuse de ses effets politiques et néocoloniaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est généralement admis que la vision joue un rôle prépondérant dans la formation des représentations spatiales. Qu’advient-il alors lorsqu’un individu est atteint de cécité? Dans le premier volet de cette thèse, les habiletés spatiales des personnes aveugles ont été examinées à l’aide de différentes tâches et comparées à celles de personnes voyantes effectuant les mêmes tâches avec les yeux bandés. Dans une première étude, les capacités de rotation mentale ont été évaluées à l’aide d’une épreuve d’orientation topographique tactile. Les résultats obtenus montrent que les personnes aveugles parviennent généralement à développer des capacités de rotation mentale similaires à celles de personnes voyantes et ce, malgré l’absence d’information de nature visuelle. Dans une seconde étude, nous avons utilisé différentes tâches spatiales nécessitant l’utilisation de la locomotion. Les résultats obtenus montrent que les personnes aveugles font preuve d’habiletés supérieures à celles de voyants lorsqu’elles doivent apprendre de nouveaux trajets dans un labyrinthe. Elles parviennent également à mieux reconnaître une maquette représentant un environnement exploré précédemment. Ainsi, l’absence de vision ne semble pas entraver de manière significative la formation de concepts spatiaux. Le second volet de cette thèse s’inscrit dans la lignée des études sur la plasticité cérébrale chez les personnes aveugles. Dans le cas présent, nous nous sommes intéressés à l’hippocampe, une structure profonde du lobe temporal dont le rôle au plan spatial a été établi par de nombreuses études animales ainsi que par des études cliniques chez l’humain incluant l’imagerie cérébrale. L’hippocampe joue un rôle particulièrement important dans la navigation spatiale. De plus, des changements structuraux de l’hippocampe ont été documentés en relation avec l’expérience des individus. Par exemple, l’étude de Maguire et al. (2000) a mis en évidence de telles modifications structurelles de l’hippocampe chez des chauffeurs de taxi. À l’instar de ces derniers, les personnes aveugles doivent emmagasiner de nombreuses informations au sujet de leur environnement puisqu’elles ne peuvent bénéficier de la vision pour mettre à jour les informations sur celui-ci, sur leur position dans l’espace et sur la position des objets se trouvant hors de leur portée. Nous avons montré, pour la première fois, une augmentation du volume des hippocampes chez les personnes aveugles en comparaison avec les personnes voyantes. De plus, cette augmentation de volume était positivement corrélée à la performance à une tâche d’apprentissage de trajets. Les résultats présentés dans cette thèse permettent d’appuyer les études antérieures qui soutiennent que les personnes aveugles parviennent à compenser leur déficit et à développer des habiletés spatiales comparables, voire supérieures, à celles de personnes voyantes. Ils permettent également d’apporter un éclairage nouveau sur le concept de plasticité cérébrale présent chez cette population en montrant pour la première fois un lien entre le volume de l’hippocampe et les habiletés spatiales chez les personnes aveugles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le mouvement des femmes québécois a connu des transformations importantes au cours des dernières décennies. Plusieurs causes ont été mises de l’avant pour expliquer ces changements, telles que la mondialisation, le néolibéralisme ou des causes internes. Dans les années 1980, nous observons une montée de l’antiféminisme au Québec et l’émergence de sa forme masculiniste. Ce phénomène a modifié le contexte dans lequel évolue le mouvement des femmes. L’objectif de ce mémoire est d’analyser les répercussions de l’antiféminisme sur les transformations du mouvement des femmes. Afin d’analyser les interactions entre le mouvement des femmes et le masculinisme, nous étudions les discours antiféministes dans les médias de 1985 à 2009. Plus précisément, nous analysons les thématiques masculinistes contenues dans La Presse et Le Soleil durant cette période. Par la suite, nous analysons diverses publications (rapports d’activités, la Petite Presse et le Féminisme en bref) de la Fédération des femmes du Québec dans le but de voir si le mouvement des femmes a modifié ses analyses, ses stratégies et ses actions en réaction à cette montée de l’antiféminisme. Finalement, à l’aide de la théorie de la mobilisation des ressources et de l’approche des contre-mouvements, nous étudions les interactions entre le mouvement des femmes et son contre-mouvement, soit l’antiféminisme. Nous arrivons à la conclusion qu’il existe véritablement des interactions entre ceux-ci et que la montée de l’antiféminisme a eu des répercussions sur le mouvement des femmes, qui ont modifié ses analyses, ses stratégies et ses actions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.