948 resultados para Laplace transforms


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les politiques migratoires européennes sont conçues en termes de contrôle de l’entrée et du séjour des étrangers. Depuis la mise en place des conditions de libre circulation dans les années 1980, l’Union européenne est impliquée dans le traitement des non-nationaux qui, auparavant, relevait exclusivement de la discrétion étatique. La migration et l’asile sont aujourd’hui des domaines de compétence partagée entre l’Union et ses membres. La priorité est accordée à la lutte contre la migration irrégulière, perçue non seulement comme un défi à la souveraineté, mais aussi comme une menace à l’État providence et un risque pour la sécurité. Cette recherche porte sur l’européanisation de la lutte contre la migration irrégulière et ses effets sur les droits humains des étrangers. Il est soutenu que l’européanisation définie comme un processus de construction, de diffusion et d’institutionnalisation des normes, des pratiques et des convictions partagées, permet aux États d’atteindre leur objectif de limiter le nombre d’étrangers indésirés, y compris des demandeurs d’asile, sur leur sol. L’européanisation légitime et renforce les mesures préventives et dissuasives existantes à l’encontre des migrants clandestins. De nouvelles normes communes sont produites et de nouveaux dispositifs de coopération européenne sont créés en vue de réprimer la migration irrégulière. Ce phénomène transforme le paradigme migratoire dans les États membres ainsi que les pays candidats à l’adhésion qui se trouvent désormais chargés de la sécurisation des frontières extérieures de l’Union. La recherche démontre que ces développements ont un impact négatif sur les droits fondamentaux. Ils exacerbent aussi la vulnérabilité des demandeurs d’asile assimilés aux migrants économiques. Une analyse comparative de l’européanisation du renvoi forcé en France, au Royaume-Uni et en Turquie montre que la politique européenne engendre des atteintes aux droits et libertés des étrangers et limite leur capacité de contester les violations devant les tribunaux. L’accent est mis sur la nécessité de trouver un équilibre entre la préoccupation légitime des États et de l’Union d’assurer la sécurité et le bien-être de leurs citoyens et la protection des droits des migrants irréguliers. Il revient ultimement aux tribunaux de veiller à ce que le pouvoir discrétionnaire étatique s’exerce en stricte conformité avec les normes constitutionnelles et les obligations internationales découlant du droit international des réfugiés et des droits de l’homme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le phénomène de la création dans le cadre d’un discours sur la création – la production littéraire et artistique – ne va pas de soi. La tâche de le circonscrire comme un objet est antinomique : l’expérience du discours est en soi une création. Alors que le langage écrit semble au plus souvent «supprimer» l’auteur, le processus de création implique un «Je» créateur qui pense, qui se transforme, qui vit et dont la pensée s’imbrique à son objet qui, quant à lui, est «supprimé»; car il n’est pas extérieur à la pensée mais en relation avec elle. Ce travail, qui démontre le rapport complexe entre l’objet, la critique, le sujet et le commentaire, se penche donc sur l’«avant», le «pendant» et l’«après» de la création, dans un acte de mémoire, qui découle d’une performance littéraire sur la création. Des forces motrices informes et inconscientes, à la mise en forme jusqu’à la transmission, qui lui redonne un caractère d’informe, la création est en mouvement, comme le savoir est toujours prisonnier d’un «work in progress». Tributaire d’Antonin Artaud, le texte s’inscrit à partir de l’artiste en guise d’archétype existentiel, et s’y réfère constamment pour témoigner de la création sans la détacher de la vie et de ses expériences. Pour accéder au mystère du processus de création, lié à la pensée subjective, inobjectivable et irréductible au discours linéaire, ce travail met l’accent sur les associations de la pensée qui procède, exprimées par un «Je» exemplaire omniprésent, tatoué par l’expérience, mais à la position ambiguë à titre d’auteur. Processus de vie, de pensée et de création sont non seulement entremêlés, mais traversés par le champ du tout autre, historique, mondial et social, en perpétuelle évolution. Le rôle du créateur n’est pas de ne créer qu’à partir des connaissances extérieures à lui, mais à partir de lui-même – de son moi multiple et de sa pensée imprégnée de lectures et de ce qui le traverse et l’habite dans un temps donné – pour aboutir à la mise en forme d’un texte cohérent, d’une gravure particulière de l’esprit en marche vers le savoir, qui se situe toujours dans le devenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of decision making under uncertainty, we formalize the concept of analogy: an analogy between two decision problems is a mapping that transforms one problem into the other while preserving the problem's structure. We identify the basic structure of a decision problem, and provide a representation of the mappings that pre- serve this structure. We then consider decision makers who use multiple analogies. Our main results are a representation theorem for "aggregators" of analogies satisfying certain minimal requirements, and the identification of preferences emerging from analogical reasoning. We show that a large variety of multiple-prior preferences can be thought of as emerging from analogical reasoning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les glucides constituent la classe de molécules organiques la plus abondante et ceux-ci jouent des rôles cruciaux dans divers processus biologiques. De part leur importance médicinale, la préparation des désoxy-sucres, des C-glycosides et des C-disaccharides est devenue un sujet de pointe en synthèse organique. De façon générale, cette thèse décrit une nouvelle synthèse de novo des 4-désoxy hexopyrannoses en plus de la préparation de C-glycosides biologiquement actifs. De plus, une attention particulière a été portée à la préparation de novo de 4-désoxy-C-disaccharides. Dans un premier temps, le catalyseur de Cr(III) de Jacobsen et un complexe binaphtol/titane ont été utilisés pour réaliser des hétéro-Diels-Alder énantiosélectives. Les dihydropyrannes ainsi générés ont été transformés en 4-désoxy hexopyrannoses présents dans la nature. De cette façon, un dérivé de l’acide ézoaminuroïque, un précurseur de la désosamine et de la néosidomycine, a été préparé suivant cette approche de novo. De plus, à titre comparatif, la néosidomycine a également été fabriquée selon une approche chiron, à partir du méthyl alpha-D-mannopyrannoside. Finalement, une évaluation biologique préliminaire de la néosidomycine a été effectuée sur une la concanavaline-A (Chapitre 2). Dans un deuxième temps, une allylation stéréosélective sur un aldéhyde lié via des liens C-C à une unité mannoside a permis de générer un alcool homoallylique. Cette dernière fonctionnalité a été transformée en 4-désoxy hexopyrannose de configuration D ou L. De cette façon, la préparation de pseudo 4-désoxy-C-disaccharides, de 4-désoxy-C-disaccharides et de pseudo 4-désoxy aza-C-disaccharides a facilement été réalisée. Les rapports diastéréoisomériques de la réaction d’allylation ont été déterminés en plus de la configuration absolue des nouveaux centres stéréogéniques formés. La transformation des alcools homoallyliques en pyrannes poly hydroxylés ou en lactames poly hydroxylés a été réalisée, en plus de la déprotection de certains membres de cette famille pour une évaluation biologique préliminaire sur la concanavaline-A (Chapitre 3). Finalement, la synthèse de C-glycosides biologiquement actifs a été réalisée selon deux volets: i) préparation de 3-C-mannopyrannosyl coumarines et ii) synthèse de C-galactosides, inhibiteurs de la lectine PA-IL. Pour ce faire, le couplage de Heck a été utilisé à partir d’un ester alpha,bêta-insaturé, attaché à une unité glycosidique via des liens C-C, pour générer un dérivé glycosyl cinnamate de méthyle. Cependant, lorsque le 2-iodophénol est utilisé comme partenaire de Heck, la coumarine correspondante a été isolée. Les dérivés C-galactopyrannosyl cinnamates de méthyle représentent de bons inhibiteurs monovalents de la PA-IL avec un Kd aussi bas que 37 micro M (Chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Europe engendre des transformations majeures de l’État national, influence sa structure politique, sa conception de la démocratie et du droit, et produit des effets sur les rapports majorité minorités. Elle a pour effet d’éloigner l’État national du modèle traditionnel de l’État-Nation ethniquement ou culturellement homogène en l’amenant à reconnaître la pluralité de ses composantes nationales. Ces mutations sont le résultat du processus même d’intégration communautaire et des politiques de régionalisation et de décentralisation que favorisent les institutions européennes. Soumis au double processus d’intégration supranationale et de désagrégation infranationale, l’État national se transforme. Son rapport avec les minorités, également. L’Europe commande des aménagements de la diversité. Pour y arriver, elle impose un droit à la différence, lequel s’inscrit toujours dans la protection générale des droits de l’homme mais vise spécifiquement à reconnaître des droits identitaires ou poly ethniques aux personnes appartenant à des minorités, en tant que groupe, dans le but évident de les protéger contre la discrimination et l’intolérance. En faisant la promotion de ce droit à la différence, l’Europe propose un modèle alternatif à l’État-Nation traditionnel. La nation (majorité) peut désormais s’accommoder de la diversité. La nation n’est plus seulement politique, elle devient socioculturelle. En faisant la promotion du principe de subsidiarité, l’Europe incite à la décentralisation et à la régionalisation. En proposant un droit de la différence, l’Union européenne favorise la mise au point de mécanismes institutionnels permanents où la négociation continue de la normativité juridique entre groupes différents est possible et où l’opportunité est donnée aux minorités de contribuer à la définition de cette normativité. Le pluralisme juridique engendré par la communautarisation reste par ailleurs fortement institutionnel. L’État communautarisé détient encore le monopole de la production du droit mais permet des aménagements institutionnels de l’espace public au sein d’un ensemble démocratique plus vaste, donc l’instauration d’un dialogue entre les différentes communautés qui le composent, ce qui aurait été impensable selon la théorie classique de l’État-nation, du droit moniste et monologique. Ainsi, assistons-nous à la transformation progressive dans les faits de l’État-nation en État multinational. La question des minorités soulève un problème de fond : celui de l'organisation politique minoritaire. La volonté de respecter toutes les identités collectives, de donner un statut politique à toutes les minorités et de satisfaire toutes les revendications particularistes n’a pas de fin. L’État-Nation n’est certes pas le meilleur –ni le seul- modèle d’organisation politique. Mais l’État multinational constitue-t-il une alternative viable en tant que modèle d’organisation politique ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lien entre le spectre de la matrice de transfert de la formulation de spins du modèle de Potts critique et celui de la matrice de transfert double-ligne de la formulation de boucles est établi. La relation entre la trace des deux opérateurs est obtenue dans deux représentations de l'algèbre de Temperley-Lieb cyclique, dont la matrice de transfert de boucles est un élément. Le résultat est exprimé en termes des traces modifiées, qui correspondent à des traces effectuées dans le sous-espace de l'espace de représentation des N-liens se transformant selon la m ième représentation irréductible du groupe cyclique. Le mémoire comporte trois chapitres. Dans le premier chapitre, les résultats essentiels concernant les formulations de spins et de boucles du modèle de Potts sont rappelés. Dans le second chapitre, les propriétés de l'algèbre de Temperley-Lieb cyclique et de ses représentations sont étudiées. Enfin, le lien entre les deux traces est construit dans le troisième chapitre. Le résultat final s'apparente à celui obtenu par Richard et Jacobsen en 2007, mais une nouvelle représentation n'ayant pas été étudiée est aussi investiguée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise est une recherche exploratoire sur les expériences de localisation vécues dans l’espace urbain montréalais par des sujets en relation à l’information dite « de localisation ». La localisation est un processus d’orientation spatiale où l’emplacement d’un lieu dans l’espace est un problème à résoudre. Cette exploration est basée sur la théorisation de l’information proposée par Bateson (1972) et le développement du concept de dispositif par Belin (2002) et Agamben (2007) à la suite de Foucault, la localisation étant le concept empirique exploratoire. Le processus de localisation est investigué quant à son caractère médiatique : l’information de localisation est le medium qui, en étant un résultat et une cause de l’action, donne forme à ce processus mené par l’effort. Un travail de terrain ethnométhodologique déployé par le biais d’observations empiriques et d’entrevues qualitatives permet d’identifier certaines conditions qui rendent possibles, dans la vie quotidienne, les relations entre l’information de localisation, l’espace urbain et un sujet. Étant majoritairement vécue lors de déplacements présents, futurs ou passés, la localisation est ainsi conceptualisée en tant que wayfinding : l’action de déterminer quelles voies ou trajets emprunter pour se rendre d’un point A à un point B. Ce mémoire est en réalité une problématisation ouverte qui vise à explorer et identifier certains enjeux qui sont au cœur des processus de localisation dans l’espace urbain montréalais. Si « [l]e fait humain par excellence », comme le souligne Leroi-Gouhran (1965) « est peut-être moins la création de l’outil que la domestication du temps et de l’espace » (p. 139), le fait d’habiter en un certain temps et en un certain espace est en soi une relation problématique de confiance. Le vivant et le non-vivant habitent des espaces aménagés qui sont continuellement transformés par leur détermination mutuelle. En partant du constat que l’environnement construit se déploie en étant produit et aménagé dans des dispositions où certains de nos gestes sont délégués, peut-on envisager être libre sans (se) faire confiance ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aliénation est une problématique clé de la littérature haïtienne. Ce thème, abordé à de nombreuses reprises, est renouvelé dans les œuvres de l’écrivain Gary Victor, plus particulièrement dans les romans À l’angle des rues parallèles et Je sais quand Dieu vient se promener dans mon jardin. Ce mémoire a pour but d’étudier l’aliénation due à l’assimilation des différents discours qui circulent dans la société. Victor ne fait pas que montrer l’aliénation collective et individuelle ainsi que les différents mécanismes qui provoquent cette «folie». Il campe ses récits dans un univers chaotique où les modalités interdiscursives de la représentation des lieux et des milieux viennent renforcer cette impression d’aliénation quasi généralisée, et les personnages les plus fous apparaissent finalement comme étant les plus lucides. Des notions empruntées à la sociocritique nous ont servi de cadre théorique pour cette recherche. Le mémoire est composé de cinq chapitres. Les quatre premiers procèdent à l’analyse des discours qui sont présentés comme les sources de l’aliénation des personnages. Le chapitre un est consacré aux discours qui découlent de la société de consommation, qui ne s’appliquent plus uniquement aux objets, mais bien à la gestion des relations interpersonnelles. Le second chapitre se penche sur la question des croyances religieuses, que ce soient les croyances traditionnelles indigènes ou la religion catholique, et montre comment elles peuvent être potentiellement dangereuses pour ceux et celles qui sont trop crédules et comment elles peuvent devenir une arme pour les personnes malintentionnées. Le troisième chapitre étudie la façon dont les discours politiques et historiques sont devenus des lieux de référence pernicieux pour la société haïtienne et la manière dont les personnes au pouvoir les utilisent afin de manipuler le peuple. Le quatrième chapitre aborde les effets pervers des différents discours des savoirs en sciences humaines, plus particulièrement ceux de la philosophie et de la psychanalyse. Il montre les conséquences désastreuses qu’ils peuvent entraîner lorsqu’ils sont transformés en principes immuables. Le dernier chapitre analyse quelques modalités de cette représentation inédite de l’aliénation. Des lieux hostiles, des personnages violents ainsi que l’utilisation de références littéraires et cinématographiques marquant l’imaginaire social font partie des techniques employées par Victor. Ce chapitre fait ressortir également les différentes figures qui traduisent la résistance à cet univers démentiel. Notre lecture des romans de Victor conduit à une réflexion sur la définition du roman populaire, en lien avec la modernité telle que définie par Alexis Nouss. D’après ce qui se dégage de l’œuvre de Gary Victor, ce genre, objet de nombreuses critiques et défini comme servant uniquement au simple divertissement des lecteurs, peut aussi aider à prévenir les dérives des sociétés en perte de repères.