983 resultados para Espace de représentation
Resumo:
Le phénomène de la romanisation étant des plus complexe, il est donc nécessaire de se concentrer sur un seul de ses aspects, mais aussi sur un espace géographique restreint : la diffusion de la citoyenneté romaine en Afrique proconsulaire. Quels sont ses mécanismes et ses processus? Quels sont les motifs pour Rome ou pour les indigènes? Finalement, quels sont les impacts de cette diffusion sur les individus ainsi que sur leur cité? Ultimement, y a-t-il eu une romanisation de l’Afrique par la diffusion de la citoyenneté romaine? Voilà les questions qui ont été posées à travers l’étude des cas de Thugga et de Lepcis Magna. Finlement, il semble que l’empereur ainsi que les notables locaux furent des moteurs importants de cette diffusion, que les motifs pouvaient être stratégiques ou culturels pour l’empereur, mais surtout fiscaux pour les notables et que le principal impact, autant sur les individus que sur la cité, fut bel et bien la transformation, voire la romanisation juridique, de l’Afrique romaine.
Resumo:
Les structures avec des lieurs sont très communes en informatique. Les langages de programmation et les systèmes logiques sont des exemples de structures avec des lieurs. La manipulation de lieurs est délicate, de sorte que l’écriture de programmes qui ma- nipulent ces structures tirerait profit d’un soutien spécifique pour les lieurs. L’environ- nement de programmation Beluga est un exemple d’un tel système. Nous développons et présentons ici un compilateur pour ce système. Parmi les programmes pour lesquels Beluga est spécialement bien adapté, plusieurs peuvent bénéficier d’un compilateur. Par exemple, les programmes pour valider les types (les "type-checkers"), les compilateurs et les interpréteurs tirent profit du soutien spécifique des lieurs et des types dépendants présents dans le langage. Ils nécessitent tous également une exécution efficace, que l’on propose d’obtenir par le biais d’un compilateur. Le but de ce travail est de présenter un nouveau compilateur pour Beluga, qui emploie une représentation interne polyvalente et permet de partager du code entre plusieurs back-ends. Une contribution notable est la compilation du filtrage de Beluga, qui est particulièrement puissante dans ce langage.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Alors que la plupart des théories libérales ont mis l’accent sur les principes de justice, et sur une conception de la justice qui nous fait penser la société et les relations individuelles de manière de plus en plus abstraite, les réflexions sur le respect de soi nous portent plutôt vers ce qui est essentiel à la valeur et l’importance de l’identité des personnes et de leurs relations sociales. Ces réflexions nous révèlent que non seulement les principes de justice ne sont pas la seule source de respect, mais que tant les cultures et les religions que les communautés morales et les groupes compréhensifs ont des rôles fondamentaux pour le niveau de respect de soi et de respect mutuel que les individus éprouvent envers eux-mêmes et envers les autres. Si les projets de vie, les valeurs et les croyances des individus sont révélés comme fondamentaux à leur autonomie et leur vie comme individu, les réflexions sur le multiculturalisme et le pluralisme révèlent les difficultés de notre temps : comment une société peut-elle promouvoir le respect de soi des individus dans un tel contexte de diversité morale, compréhensive, religieuse, etc.? Critiquant les théories de John Rawls, Will Kymlicka, ainsi que certains arguments de philosophes tels que Bhiku Parekh et David Miller, la thèse défendue dans ce mémoire prend la position très forte qu’une société doit donner beaucoup plus de moyens aux individus pour que leur respect de soi soit favorisé. La thèse centrale est que les individus ont tous le droit à un contexte de valorisation, soit un espace politique propre à une communauté ou un groupe et qui inclut les institutions et les pouvoirs nécessaires pour que le respect de soi des membres de ces groupes puisse être favorisé. C’est seulement par un tel droit et par les revendications structurelles et institutionnelles qui s’y rapportent que les groupes culturels et religieux, ainsi que les communautés morales et les groupes compréhensifs peuvent être reconnus politiquement et qu’une théorie libérale et multiculturelle des individus et des groupes puisse concilier idéal et réalité.
Resumo:
L'intégration européenne occasionne de multiples dilemmes pour les organisations syndicales, habitués à exercer leurs répertoires d'action dans un espace d'État-nation. Parmi les dilemmes spécifiquement liés à la gouvernance multiniveaux européenne, nous comptons la mobilité de la main-d'œuvre et la création d'un marché unique pour les services. Cette thèse examine les stratégies des organisations syndicales danoises et suédoises de trois secteurs pour s'attaquer à ces deux dilemmes. Des approches néo-institutionnalistes, notamment celle concernant les « variétés du capitalisme », s'attendraient à des réponses relativement uniformes, axées sur les fortes complémentarités institutionnelles nationales, tenant compte de la nature coordonnée des relations industrielles scandinaves. Notre thèse confirme que les institutions nationales jouent un rôle important pour atténuer les impacts de l'intégration économique, au fur et à mesure que l'intégration progresse. L'analyse de nos cas, basée sur plus de soixante entretiens semi-dirigés effectués en Europe, nous permet cependant d'affirmer un rôle également important pour des facteurs endogènes, notamment l'entrepreneuriat institutionnel et les capacités stratégiques.
Resumo:
Les dinoflagellés jouent un rôle très important dans l’écologie des océans en y réalisant une grande partie de la production primaire, en formant une association symbiotique avec les coraux et en ayant la capacité de produire des fleurs d’algues potentiellement toxiques pour les communautés côtières humaines et animales. Malgré tout, la biologie moléculaire des dinoflagellés n’a que très peu été étudiée dans les dernières années, les connaissances de processus de base comme la régulation de la transcription y étant fortement limitées. Une tentative pour élucider ce mécanisme a été réalisée chez les dinoflagellés photosynthétiques Lingulodinium polyedrum et Amphidinium carterae. Une expérience d’induction de la transcription du gène de la Peridinin chlorophyll-a binding protein, le complexe majeur de collecte de lumière, a été réalisée par une baisse de l’intensité lumineuse et a montré une faible augmentation (moins de 2 fois) du transcrit à court et long terme. Des expériences de simple-hybride et de retard sur gel (EMSA) ont été faits pour identifier de potentielles interactions protéine-ADN dans la région intergénique du gène PCP organisé en tandem. Ces essais ont été infructueux pour identifier de telles protéines. Une analyse du transcriptome de L. polyedrum a été effectuée, montrant une importante sous-représentation de domaines de liaison à l’ADN classique (comme Heat-shock factor, bZIP ou Myb) et une surreprésentation du domaine d’origine bactérienne Cold shock en comparaison avec d’autres eucaryotes unicellulaires. Ce travail suggère que les mécanismes de régulation transcriptionnelle des dinoflagellés pourraient différer substantiellement de ceux des autres eucaryotes.
Resumo:
Après le succès mondial de la série télévisée prolongé par les films, la franchise Sex and the City est devenue un phénomène de masse. Sujet de plusieurs études académiques qui mettent en évidence l’importance du post-féminisme pour le succès de la franchise, Sex and the City se distingue par la relation particulière qui s’instaure entre les spectateurs et les personnages, et qui est l’objet de la présente étude : relation qui passe par la représentation des thèmes et du quotidien féminins et surtout par la construction des personnages, principalement du personnage principal Carrie Bradshaw. De plus, elle est renforcée par des stratégies médiatiques utilisées pour rapprocher le public féminin à partir des processus de reconnaissance et d’identification qui dirigent la réception de masse.
Resumo:
Cette étude vise à comprendre les motifs qui peuvent s’avérer source de conflits dans une situation où il est le plus inattendu : les navires de croisières. Nous analysons les constructions de la propagande de vente de croisières avec l’utilisation des mythes marins. Nous nous questionnons ensuite sur la relation entre l’être humain et la mer à partir de la grande diversité mythologique entourant celle-ci ainsi que l’expérience empirique de la vie sur un navire de croisière (également sur un paquebot, cargo et bateau militaire). Dans ce contexte touristique, nous abordons le thème de la rencontre de l’Autre : l’Autre étant les personnes habitant les destinations visitées, les touristes, et principalement, les employés sur le navire responsables du service à la clientèle. Enfin, nous analysons plusieurs conflits représentatifs vécus à bord d’une croisière afin de comprendre les structures conflictuelles ; l’espace, la subordination, les jeux de rôle, les classes sociales, etc.
Resumo:
Lorsque nous cherchons un ami dans une foule ou attendons un proche sur le quai d’une gare, l’identification de cette personne nous est souvent possible grâce à la reconnaissance de sa démarche. Plusieurs chercheurs se sont intéressés à la façon de se mouvoir de l’être humain en étudiant le mouvement biologique. Le mouvement biologique est la représentation, par un ensemble structuré de points lumineux animés, des gestes d’un individu en mouvement dans une situation particulière (marche, golf, tennis, etc.). Une des caractéristiques du patron de mouvement biologique peu étudiée et néanmoins essentielle est sa taille. La plupart des études concernées utilisent des patrons de petite taille correspondant à une personne située à 16 mètres de l’observateur. Or les distances d’interaction sociale, chez l’humain, sont généralement inférieures à 16 mètres. D’autre part, les résultats des études portant sur la perception des patrons de mouvement biologique et le vieillissement demeurent contradictoires. Nous avons donc, dans un premier temps, évalué, dans une voûte d’immersion en réalité virtuelle, l’importance de la distance entre l’observateur et le patron de mouvement biologique, chez des adultes jeunes et des personnes âgées. Cette étude a démontré que l’évaluation de la direction de mouvement d’un patron devient difficile pour les personnes âgées lorsque le patron est situé à moins de 4 mètres, alors que les résultats des jeunes sont comparables pour toutes distances, à partir d’un mètre et au-delà. Cela indique que les gens âgés peinent à intégrer l’information occupant une portion étendue de leur champ visuel, ce qui peut s’avérer problématique dans des espaces où les distances d’interaction sont inférieures à 4 mètres. Nombre de recherches indiquent aussi clairement que les gens âgés s’adaptent difficilement à des situations complexes. Nous avons donc cherché, dans un second temps, à minimiser ces altérations liées à l’âge de l’intégration des processus complexes, en utilisant une tâche adaptée à l’entraînement et à l’évaluation de l’intégration de ces processus : la poursuite multiple d’objets dans l’espace ou 3D-MOT (3 Dimensions Multiple Object Tracking). Le 3D-MOT consiste à suivre simultanément plusieurs objets d’intérêt en mouvement parmi des distracteurs également en mouvement. Nous avons évalué les habiletés de participants jeunes et âgés à une telle tâche dans un environnement virtuel en 3D en déterminant la vitesse maximale de déplacement des objets à laquelle la tâche pouvait être exécutée. Les résultats des participants âgés étaient initialement inférieurs à ceux des jeunes. Cependant, après plusieurs semaines d’entraînement, les personnes âgées ont obtenu des résultats comparables à ceux des sujets jeunes non entraînés. Nous avons enfin évalué, pour ces mêmes participants, l’impact de cet entraînement sur la perception de patrons de mouvement biologique présentés à 4 et 16 mètres dans l’espace virtuel : les habiletés des personnes âgées entraînées obtenues à 4 mètres ont augmenté de façon significative pour atteindre le niveau de celles obtenues à 16 mètres. Ces résultats suggèrent que l’entraînement à certaines tâches peut réduire les déclins cognitivo-perceptifs liés à l’âge et possiblement aider les personnes âgées dans leurs déplacements quotidiens.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
Ce mémoire veut, de prime abord, porter un regard sur la rue Saint-Laurent qui, depuis ses débuts, joue un rôle fondamental dans le tissu montréalais. Grâce à son visage bigarré et à son hétérogénéité, elle a su marquer l’histoire de la métropole et alimenter l’imaginaire d’un bon nombre d’écrivains. Michel Tremblay demeure un de ceux qui, dans l’ensemble de son oeuvre, explore le plus abondamment les clairs-obscurs et l’étrangeté de ce corridor urbain. Son écriture à la fois crue, marginale et théâtrale, s’inscrit pertinemment dans l’univers de la Main et, plus particulièrement, dans la partie du Redlight où aboutissent et se meuvent ses personnages les plus colorés. Ayant délaissé leur milieu d’origine, ces derniers s’imposent des changements radicaux afin de mieux cadrer avec la nature et les activités de leur terre d’accueil. Ce mémoire visera donc à penser l’« identité trafiquée » des personnages de Tremblay comme condition de leur inscription sur la rue Saint-Laurent. En outre, il sera question de l’esprit théâtral de cette artère qui pousse les travestis et les artistes en tout genre à se donner « en représentation » et à incarner un rôle de composition. Par l’entremise des masques – notamment celui du déguisement, du maquillage et du travestissement, mais aussi celui de la langue qu’ils modulent afin de mieux coller à leur personnage –, ils projettent une identité individuelle instable qui dévoile l’ambiguïté qui les habite. Plus largement, la présente étude s’intéressera à l’ensemble des marginaux qui arpentent la Main et qui cherchent à (re)définir leur identité culturelle, au milieu des cultures américaine et française. Bien qu’elle essaie de se forger une identité propre, cette collectivité peine à se définir sans calquer les modèles dont elle tente de se dissocier. Une telle contradiction évoque à bien des égards le paradoxe auquel se sont heurtées les communautés immigrantes de la rue Saint-Laurent, dont la lente adaptation à la culture nord-américaine s’est faite non sans un difficile constat de pertes et de gains face à la culture d’origine. Il s’agira donc de voir comment ces groupes, en apparence irréconciliables, trouvent dans le même univers un contexte favorable pour mener leur quête identitaire.
Resumo:
Thèse de doctorat effectuée en cotutelle avec la Faculté de droit de l'Université Jean Moulin Lyon III