975 resultados para Clique vertex irreducible graphs
Resumo:
L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.
Resumo:
Ce mémoire analysera une des thèses majeures de l’œuvre d’Emmanuel Levinas, à savoir le primat de l’éthique sur l’ontologie. L’argumentation se penchera surtout sur la description phénoménologique de l’approche de l’altérité, incarnée dans la concrétude du visage du prochain et dans laquelle se retrouve l’idée de l’infini, inspirée dans sa formulation de Descartes. Cette idée, n’étant pas qu’un simple concept mais plutôt une réalité phénoménale transcendante, amène Levinas à questionner le rôle de la conscience thématisante dans l’expérience morale, caractérisée par son immédiateté et par la présence d’un Autre. Est-ce que l’essentiel de la conscience se comprend comme liberté et savoir ? Y aurait-il un autre aspect, oublié par la rationalité que Levinas qualifie de grecque, qui serait plus propre à décrire la conscience ? L’ontologie ne repose-t-elle pas sur une conception de l’homme comme un sujet autonome et en contrôle ? Par ses fines analyses plutôt ontologiques dans Totalité et infini, et par sa prose plus déconstructrice d’Autrement qu’être, ou au-delà de l’essence, Levinas ébranle les fondations du sujet moderne tout en ramenant au centre des préoccupations philosophiques une idée que la tradition occidentale a eu tendance à évacuer, c’est-à-dire l’altérité. Et cette altérité, irréductible aux concepts immanents de la conscience d’un sujet, est ce qui justifie le primat de l’éthique, posant devant le je un tu qui appelle et demande une responsabilité absolue. Plusieurs auteurs et commentateurs seront mis à contribution, dont surtout Husserl et Heidegger, ainsi que S. Critchley, B. Bergo, J.-M. Salanskis et Jacques Roland.
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.
Resumo:
Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation
Resumo:
Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Ce mémoire est une partie d’un programme de recherche qui étudie la superintégrabilité des systèmes avec spin. Plus particulièrement, nous nous intéressons à un hamiltonien avec interaction spin-orbite en trois dimensions admettant une intégrale du mouvement qui est un polynôme matriciel d’ordre deux dans l’impulsion. Puisque nous considérons un hamiltonien invariant sous rotation et sous parité, nous classifions les intégrales du mouvement selon des multiplets irréductibles de O(3). Nous calculons le commutateur entre l’hamiltonien et un opérateur général d’ordre deux dans l’impulsion scalaire, pseudoscalaire, vecteur et pseudovecteur. Nous donnons la classification complète des systèmes admettant des intégrales du mouvement scalaire et vectorielle. Nous trouvons une condition nécessaire à remplir pour le potentiel sous forme d’une équation différentielle pour les cas pseudo-scalaire et pseudo-vectoriel. Nous utilisons la réduction par symétrie pour obtenir des solutions particulières de ces équations.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
Plusieurs familles de fonctions spéciales de plusieurs variables, appelées fonctions d'orbites, sont définies dans le contexte des groupes de Weyl de groupes de Lie simples compacts/d'algèbres de Lie simples. Ces fonctions sont étudiées depuis près d'un siècle en raison de leur lien avec les caractères des représentations irréductibles des algèbres de Lie simples, mais également de par leurs symétries et orthogonalités. Nous sommes principalement intéressés par la description des relations d'orthogonalité discrète et des transformations discrètes correspondantes, transformations qui permettent l'utilisation des fonctions d'orbites dans le traitement de données multidimensionnelles. Cette description est donnée pour les groupes de Weyl dont les racines ont deux longueurs différentes, en particulier pour les groupes de rang $2$ dans le cas des fonctions d'orbites du type $E$ et pour les groupes de rang $3$ dans le cas de toutes les autres fonctions d'orbites.
Resumo:
Dans ce travail, nous exploitons des propriétés déjà connues pour les systèmes de poids des représentations afin de les définir pour les orbites des groupes de Weyl des algèbres de Lie simples, traitées individuellement, et nous étendons certaines de ces propriétés aux orbites des groupes de Coxeter non cristallographiques. D'abord, nous considérons les points d'une orbite d'un groupe de Coxeter fini G comme les sommets d'un polytope (G-polytope) centré à l'origine d'un espace euclidien réel à n dimensions. Nous introduisons les produits et les puissances symétrisées de G-polytopes et nous en décrivons la décomposition en des sommes de G-polytopes. Plusieurs invariants des G-polytopes sont présentés. Ensuite, les orbites des groupes de Weyl des algèbres de Lie simples de tous types sont réduites en l'union d'orbites des groupes de Weyl des sous-algèbres réductives maximales de l'algèbre. Nous listons les matrices qui transforment les points des orbites de l'algèbre en des points des orbites des sous-algèbres pour tous les cas n<=8 ainsi que pour plusieurs séries infinies des paires d'algèbre-sous-algèbre. De nombreux exemples de règles de branchement sont présentés. Finalement, nous fournissons une nouvelle description, uniforme et complète, des centralisateurs des sous-groupes réguliers maximaux des groupes de Lie simples de tous types et de tous rangs. Nous présentons des formules explicites pour l'action de tels centralisateurs sur les représentations irréductibles des algèbres de Lie simples et montrons qu'elles peuvent être utilisées dans le calcul des règles de branchement impliquant ces sous-algèbres.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.