936 resultados para writing to learn
Resumo:
L’apparition et la montée du fascisme en Italie sont des faits marquants du XXe siècle et plus précisément de l’entre-deux-guerres. Ce nouveau phénomène social a rapidement attiré l’attention de la communauté internationale. Il vient frapper les mentalités européennes dans le contexte de sociétés déjà polarisées par divers courants idéologiques. La Première Guerre mondiale a fait place à de fondamentales divergences d’opinions sur ce que devait être le futur, autant social qu’économique, des sociétés industrielles. S’étant imposé en Italie, le fascisme représente un de ses mouvements. Ce travail s’intéresse à la manière dont la société française a perçu la montée du fascisme italien. Pour ce faire, il retrace l’approche de plusieurs journaux français de 1919 à 1926 à l’égard de l’expérience italienne. L’analyse des grands journaux Le Temps, L'Humanité, Le Figaro et L'Action française permet un survol de l’opinion politique en France. La problématique avancée dans ce travail nous aide à en apprendre plus, non seulement sur l’apparition d’un phénomène majeur du siècle précédent, mais aussi, plus précisément, sur le regard porté sur lui par les grands courants politiques français. On a pu déceler plusieurs thèmes de prédilection abordés par la presse française. Premièrement, celle-ci a tenté de définir le fascisme, son origine et sa composition ainsi que le phénomène de la violence qui touchait la péninsule. Puis, le fascisme ayant accédé au pouvoir, elle a réfléchi sur le coup de force et ses répercussions. Finalement, elle a analysé la politique intérieure et extérieure du nouveau régime. Il en ressort une perspective unique grâce à l'analyse de quatre organes majeurs qui représentent et façonnent l'opinion publique en France. Notre analyse montre que le fascisme est un sujet préoccupant pour les contemporains par son caractère nouveau. Tous les journaux ont suivi l'évolution de ce mouvement avec attention. Les réactions en témoignent: ce fut, entre autres, l'exemple frappant d'une répression brutale pour les uns et l'émergence d'une idéologie susceptible de mettre fin à la terreur du bolchevisme pour les autres. Ce fut aussi un terrain d'affrontement idéologique.
Resumo:
L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.
Resumo:
Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.
Resumo:
Si les bénéfices de la pratique physique sur l’apprentissage moteur ne sont plus à démontrer, de nombreuses études s’accordent sur le fait qu’il est également possible d’apprendre une nouvelle habileté en observant un modèle qui réalise la tâche à apprendre. De plus, plusieurs chercheurs ont montré que les mécanismes permettant l’acquisition d’une nouvelle habileté motrice par pratique physique et par observation sont semblables. Or, l’apprentissage se poursuit au-delà des séances de pratique par des « processus de consolidation » essentiels pour que les habiletés pratiquées soient retenues à long terme. À cet effet, Trempe, Sabourin, Rohbanfard et Proteau (2011), ont montré que la consolidation ne s'effectuait pas de la même façon selon que la pratique était faite physiquement ou par observation. Par conséquent, nous avons tenté de déterminer si pratiquer une tâche par pratique physique et l’autre par observation permet d'optimiser l'apprentissage concomitant de ces deux tâches bien qu’elles soient normalement interférentes. Nos résultats ont montré que la tâche A causait une interférence antérograde sur la tâche B peu importe le type de pratique effectué, ce qui suggère que les processus de consolidation prenant place suite à l’observation sont plutôt similaires à ceux qui prennent place suite à la pratique physique. Ainsi, il semble que la pratique mixte ne permet pas de réduire les interférences lors de l’apprentissage de deux tâches semblables.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Malgré le rôle important joué par les comportements alimentaires durant la grossesse, et de leurs implications pour la santé de la mère et de l’enfant à naître, plusieurs études soulignent que les besoins d’informations des femmes enceintes à faible revenu ou issues de minorités ethniques n’ont pas été comblés. Le comportement de recherche d’informations de femmes enceintes immigrantes maghrébines à faible revenu sera donc abordé via le modèle d’Engel, Kollat et Blackwell. L’objectif général est l’exploration de ce comportement de recherche d’informations en lien avec des thématiques associées à leur alimentation au cours de la grossesse. La thèse propose quatre questions spécifiques de recherche visant l’exploration des facteurs d’ordre individuel et d’environnement susceptibles d’influencer une recherche active d’informations, des sources auprès desquelles des informations sont recherchées, et de la nature de l’information recueillie. Un total de 28 femmes enceintes volontaires (14 primigestes et 14 secondigestes) ont été recrutées via le Dispensaire diététique de Montréal entre les mois d’août 2010 et 2011. Des entrevues semi-structurées de 60 à 90 minutes ont été réalisées par l’étudiante au doctorat. Les données ont été soumises à une analyse de contenu via le logiciel NVivo. Des facteurs d’ordre individuel susceptibles d’influencer le comportement de recherche active d’informations furent identifiés: perspective idéologique à l’égard de la grossesse, présence de malaises de grossesse, perception du caractère contradictoire des informations reçues, perceptions liées au caractère adéquat de l’information reçue, perceptions liées au caractère suffisant de l’information détenue, variation du poids corporel, valorisation du bien-être du bébé, attitudes à l’égard de la supplémentation prénatale, valorisation d’une saine alimentation et motivation à apprendre. Des facteurs d’environnement susceptibles d’influencer le comportement de recherche active d’informations ont été identifiés: culture (habitudes alimentaires, croyances alimentaires, croyances religieuses, perte de repères culturels traditionnels quant aux soins de santé et conseils offerts durant la grossesse) et interactions avec les membres de l’environnement social. Des sources d’informations significatives en lien avec la nutrition prénatale se sont avérées être pour les primigestes: diététiste, mère, amies, mari et Internet. Pour les secondigestes, ces sources d’informations étaient: diététiste, médecin, amies et mari. Une source d’informations professionnelle significative concernant la supplémentation prénatale et le gain de poids durant la grossesse, tant pour les primigestes que secondigestes, s’est révélée être la diététiste. Peu de femmes ont rapporté avoir reçu des professionnels de l’information à propos de la salubrité alimentaire et des risques de gagner trop de poids. Les résultats soulèvent une réflexion à l’égard de l’implication des professionnels en période prénatale et quant à la révision de leurs approches de counseling nutritionnel. Les résultats amènent également à réfléchir quant à l’amélioration des activités ayant pour objectif de répondre aux besoins d’informations des femmes enceintes immigrantes maghrébines à faible revenu en lien avec des thématiques liées à l’alimentation durant la grossesse. Pour terminer, il serait utile que de futures recherches s’attardent à mieux comprendre le comportement de recherche d’informations en lien avec des thématiques associées à l’alimentation de femmes enceintes de différents horizons culturels ou de celle de l’enfant à venir.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
L’hypothèse générale de ce projet soutient que le système moteur doit performer des transformations sensorimotrices afin de convertir les entrées sensorielles, concernant la position de la cible à atteindre, en commande motrice, afin de produire un mouvement du bras et de la main vers la cible à atteindre. Ce type de conversion doit être fait autant au niveau de la planification du mouvement que pour une éventuelle correction d’erreur de planification ou d’un changement inopiné de la position de la cible. La question de recherche du présent mémoire porte sur le ou les mécanismes, circuits neuronaux, impliqués dans ce type de transformation. Y a-t-il un seul circuit neuronal qui produit l’ensemble des transformations visuomotrices entre les entrées sensorielles et les sorties motrices, avant l’initiation du mouvement et la correction en temps réel du mouvement, lorsqu’une erreur ou un changement inattendu survient suite à l’initiation, ou sont-ils minimalement partiellement indépendants sur le plan fonctionnel? L’hypothèse de travail suppose qu’il n’y ait qu’un seul circuit responsable des transformations sensorimotrices, alors l’analyse des résultats obtenus par les participants devrait démontrer des changements identiques dans la performance pendant la phase de planification du mouvement d’atteinte et la phase de correction en temps réel après l’adaptation à des dissociations sensorimotrices arbitraires. L’approche expérimentale : Dans la perspective d’examiner cette question et vérifier notre hypothèse, nous avons jumelé deux paradigmes expérimentaux. En effet, les mouvements d’atteinte étaient soumis à une dissociation visuomotrice ainsi qu’à de rares essais composés de saut de cible. L’utilisation de dissociation visuomotrice permettait d’évaluer le degré d’adaptation des mécanismes impliqués dans le mouvement atteint. Les sauts de cible avaient l’avantage de permettre d’examiner la capacité d’adaptation à une dissociation visuomotrice des mécanismes impliqués dans la correction du mouvement (miroir : sur l’axe y, ou complète : inversion sur les axes x et y). Les résultats obtenus lors des analyses effectuées dans ce mémoire portent exclusivement sur l’habileté des participants à s’adapter aux deux dissociations visuomotrices à la première phase de planification du mouvement. Les résultats suggèrent que les mécanismes de planification du mouvement possèdent une grande capacité d’adaptation aux deux différentes dissociations visuomotrices. Les conclusions liées aux analyses présentées dans ce mémoire suggèrent que les mécanismes impliqués dans la phase de planification et d’initiation du mouvement parviennent relativement bien à s’adapter aux dissociations visuomotrices, miroir et inverse. Bien que les résultats démontrent une certaine distinction, entre les deux groupes à l’étude, quant aux délais nécessaires à cette adaptation, ils illustrent aussi un taux d’adaptation finale relativement similaire. L’analyse des réponses aux sauts de cible pourra être comparée aux résultats présentés dans ce mémoire afin de répondre à l’hypothèse de travail proposée par l’objectif initial de l’étude.
Resumo:
Travail créatif / Creative Work
Resumo:
L’œuvre de Nelly Arcan s’inscrit dans un pan de la littérature contemporaine accueillant les monstres comme figures de la transgression qui, par leur é-normité, interrogent la norme dont ils s’écartent. Ces êtres à la fois fascinants et inquiétants hantent la littérature depuis les récits fondateurs de la mythologie antique. Arcan, à l’instar de plusieurs femmes auteurs, recourt au procédé de la réécriture de plusieurs grands mythes grecs dans Folle (2004) et À ciel ouvert (2007). Dans les deux récits, elle met en scène des personnages en fuite qui, face à leur destin néfaste, se métamorphosent en femmes-monstres et en hommes-monstres. Les personnages masculins empruntent des traits à Jason, Narcisse et Pygmalion, mais sont, par leur déviance sexuelle et leur propension à la domination, beaucoup plus monstrueux que leurs modèles antiques. Contaminées par la monstruosité des hommes qu’elles aiment jusqu’à l’annihilation de soi, les protagonistes des deux récits affichent certains traits de Médée, de Méduse et des Amazones, tirant parti de la puissance de ces figures nocives pour donner une leçon aux personnages masculins. Elles acquièrent ainsi de nouveau leur statut de sujet. Dans ce mémoire, il s’agira, par le biais de la mythocritique, des théories de la réécriture et de l’effet-personnage, d’étudier les causes, le processus et les effets du « devenir-monstre » des personnages féminins et d’examiner la reconfiguration de mythes antiques par Arcan. En s’intéressant à la greffe des mythes antiques sur les personnages arcaniens, au déplacement et au renversement des mythèmes caractéristiques des figures prédécesseures, cette recherche espère montrer comment Nelly Arcan dissèque les relations de couple qui mènent au « devenir-monstre » des partenaires. Il ressortira de cette analyse une vision apocalyptique du vivre ensemble, entre hommes et femmes, qui rejoue l’ancienne « guerre des sexes » que l’on croyait terminée.
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
TRAVAIL DIRIGÉ PRÉSENTÉ À LA FACULTÉ DES ARTS ET SCIENCES EN VUE DE L’OBTENTION DU GRADE DE MAÎTRE ÈS SCIENCES (M.SC.) EN CRIMINOLOGIE OPTION CRIMINALISTIQUE ET INFORMATION
Resumo:
Article
Resumo:
Ce mémoire en recherche-création s’intéresse à la quête identitaire, et / ou au désir de tracer son propre chemin en réinterprétant les événements du passé. Le roman TRANSHUMANCES raconte le pèlerinage d’Alice sur la via Podiensis, qui relie la commune du Puy-en-Velay en France, à Santiago de Compostela en Espagne. Elle marche. Elle marche pour oublier, pour enterrer ses morts, pour avancer, ailleurs. Elle marche et fait de nombreuses rencontres. Par la conversation et la contemplation, elle tente d’apaiser les maux qui la rongent. Elle marche et apprivoise ce chemin mythique, mystique, cette route qui mène le croyant à la rencontre de Dieu et qui pousse l’impie à la rencontre de lui-même. Alice fait la connaissance de John. Ils se racontent des blagues et des secrets, partagent repas et larmes, deviennent frères d’ampoules et rentrent à la maison, changés. L’essai I ended up being my own trout (jeux de fragments avec Éric Plamondon) explore quant à lui à l’écriture fragmentaire, en s’intéressant particulièrement aux effets qu’opèrent les fragments sur la lecture. Éric Plamondon, avec sa trilogie 1984, utilise la forme fragmentaire afin de jouer avec le lecteur : il le fait douter de ses certitudes et le guide vers une vision manipulée de l’Histoire. Le lecteur est alors confronté à la pluralité des interprétations et doit s’imposer comme auteur de sa propre lecture.