640 resultados para Écriture automatique
Resumo:
À la lecture d’ouvrages philosophiques anciens, nous sommes souvent surpris par la virulence des critiques adressées à l’écriture, dans la mesure où ces critiques nous parviennent au moyen de textes écrits. N’est-il pas paradoxal de tout à la fois rejeter et utiliser une même technologie ? Ou est-ce que les pratiques de l’oralité et de l’écriture des philosophes grecs, telles que ceux-ci les décrivent dans leurs ouvrages, peuvent être cohérentes avec leurs critiques ? Notre thèse visait, d’une part, à répondre à ce questionnement en confrontant les pratiques des philosophes anciens aux critiques qu’ils adressent à l’écriture, par le biais d’une étude systématique des discours sur la lecture et l’écriture dans des textes anciens d’auteurs et d’époques variés, et notamment des textes qui n’ont pas l’écriture pour objet. D’autre part, comme les travaux déjà publiés sur ce thème tentaient le plus souvent de trouver le point de rupture entre la tradition orale et la tradition écrite (cf. Havelock 1963, Lentz 1989), nous avons voulu inscrire notre objet d’étude dans une plus longue durée, ce qui nous a permis de constater qu’une rupture radicale entre les philosophes de tradition orale et ceux appartenant à la tradition écrite n’avait pas eu lieu, et que l’on observait plutôt une continuité des critiques et des pratiques de l’oralité et de l’écriture depuis l’époque classique jusqu’à l’Antiquité tardive. Malgré le développement de nouveaux supports matériels pour l’écriture, l’émergence d’une religion du livre, et la mise à l’écrit des poèmes homériques, la tradition philosophique grecque témoigne d’un usage circonspect de l’écriture et du refus de rejeter définitivement l’oralité.
Resumo:
L'appropriation culturelle possède une diffusion très large et est un phénomène essentiellement intemporel. L'appropriation culturelle est définie comme «the taking- from a culture that is not one’s own- of intellectual property, cultural expressions or artifacts, history and ways of knowledge» (Ziff et Rao 1997: 1). Cela comprend tous les aspects de la spiritualité, les objets sacrés, des valeurs, des histoires et des rites. L'appropriation est étroitement liée aux relations de pouvoir et à la politique. Avec la montée de la popularité du chamanisme et du néo-chamanisme dans la société occidentale, les peuples amérindiens de l'Amérique du Nord (ou d’Australie) expriment leurs inquiétudes et leur désapprobation en ce qui concerne l’appropriation de leurs cérémonies, rituels et croyances sacrées par les Occidentaux. Par le discours contre l'appropriation, les populations autochtones (re)gagnent et (re)créent une identité qui avait été négligée, supprimée et assimilée au cours de la colonisation. Cette création identitaire s’effectue par l'intermédiaire de l'écriture, dans les milieux universitaires, aussi non-académiques, et le partage des pratiques rituelles avec d'autres autochtones (pan amérindianisme). Les auteurs autochtones contestent le statu quo et désirent contribuer à faire avancer le débat concernant l'appropriation spirituelle, les relations de pouvoir et le néo-colonialisme. Les arguments et les opinions concernant l'appropriation spirituelle présentés ici traitent de génocide culturel, d’abus sexuels, de néo-colonialisme, de non-respect et d'inquiétude face aux dangers liés à une mauvaise utilisation des rituels et autres pratiques sacrées. Ce débat est lié au processus de guérison en contexte amérindien (Episkenew 2009). En participant à ce débat sur l'appropriation spirituelle, les peuples autochtones sont activement engagés dans la (re)définition de leur identité. C'est cet engagement actif qui permet à la guérison d’avoir lieu. Ce mémoire aborde quelques-uns des auteurs autochtones contemporains et examine leurs écrits. L'importance de l'histoire et du mot dans la création identitaire est explorée. L’analyse de certains textes portant sur la médecine, la sociologie, la religion et la culture de consommation rend explicite le lien entre identité et politique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Composé de fragments narratifs et poétiques, C’est ici que le verbe habiter s’est déchiré retrace le parcours d’un jeune homme de retour dans sa ville natale, Québec. En déambulant à travers les rues, mais également à travers sa propre mémoire, le narrateur trouvera sur son chemin le point de rupture entre passé et présent. C’est ici que le verbe habiter s’est déchiré élabore une réflexion sur ces lieux et ces époques qui, même révolus, semblent ne jamais vouloir nous quitter, le tout dans une écriture où le silence est parfois aussi éloquent que la parole. Comme son nom l’indique, Sudbury : l’habitabilité de la poésie chez Patrice Desbiens est un essai traitant de la poésie comme espace d’habitation dans Sudbury de Patrice Desbiens, une œuvre mettant en scène le quotidien d’une petite ville du nord de l’Ontario. Face à ce lieu froid et désert où rien ne semble vouloir subsister, dans cette ville qu’il décrit à la fois comme factice, violente et inhabitable, Desbiens semble croire que seule l’écriture est authentique et porteuse d’une vérité. Dès lors, en signant son recueil Sudbury, le nom de cette ville qu’il habite, le poète ne se pose-t-il pas comme le véritable auteur des lieux? Ne donne-t-il pas un sens à ce qui, auparavant, en était dépourvu? N’y a-t-il pas, au final, substitution de l’espace urbain oppressant par celui, plus hospitalier, de la poésie?
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
Les antipsychotiques sont utilisés en clinique depuis plus de 50 ans pour pallier aux symptômes de la schizophrénie. Malgré une recherche intensive, les mécanismes cellulaires et moléculaires responsables de l’effet clinique de cette médication demeurent encore nébuleux. Ces drogues sont reconnues comme des antagonistes des récepteurs D2 de la dopamine et peuvent moduler la transcription génique dans le striatum. Au cours des recherches qui ont mené à l'écriture de cette thèse, nous avons exploré l’expression de Nur77, un facteur de transcription de la famille des récepteurs nucléaires, afin de caractériser le rôle de la dopamine, la sérotonine, l’adénosine et le glutamate dans la régulation génique contrôlée par les antagonistes D2. En premier lieu, nous avons examiné l’impact de la co-administration d’agents sérotonergiques et adrénergiques sur l’expression de l’ARNm de Nur77 induite par l’halopéridol, un antipsychotique de première génération. Nous avons observé que le 8-OH-DPAT et le MDL11939 préviennent partiellement l’induction de Nur77 dans le striatum. Au contraire, l’idazoxan potentialise l’effet de l’halopéridol sur l’expression de Nur77 alors que le prazosin reste sans effet. Ces résultats démontrent que l’expression striatale de Nur77 induite par l’halopéridol peut être modulée à la baisse avec un agoniste 5-HT1A ou un antagoniste 5-HT2A. Par la suite, nous avons évalué dans divers paradigmes expérimentaux l’effet de l’éticlopride, un antagoniste spécifique D2, afin d’explorer davantage le mécanisme de l’effet transcriptionnel des antagonistes D2. Étonnamment, la suppression de l’isoforme D2L chez la souris D2L KO ne réduit pas la réponse de l’éticlopride dans le striatum. Par contre, une lésion corticale avec l’acide iboténique bloque l’effet de l’éticlopride sur la transcription de Nur77, suggérant un rôle du glutamate. La combinaison d’un antagoniste des récepteurs métabotropes du glutamate de types 5 (mGluR5) et d’un antagoniste des récepteurs de l’adénosine A2A abolit complètement l’augmentation de la transcription de Nur77 induit par l’éticlopride dans le striatum. La modulation directe de l’expression striatale de Nur77 par les récepteurs mGluR5 et A2A a été confirmée dans un modèle de cultures organotypiques de tranches cérébrales. Ces résultats démontrent clairement que la modulation de l’expression génique dans le striatum, à la suite d’un traitement avec un antagoniste D2 pourrait être indépendante d’une interaction directe avec les récepteurs D2 post-synaptiques, et reposerait plutôt sur son interaction avec les récepteurs D2 hétérosynaptiques des afférences corticostriées et l’activation subséquente des récepteurs post-synaptiques du glutamate et de l’adénosine. En résumé, nos résultats suggèrent que l’interaction des antipsychotiques atypiques avec les récepteurs 5-HT2A et 5-HT1A pourrait expliquer la différence dans le patron d’expression génique induit par ces drogues en comparaison avec les antipsychotiques typiques. De plus, nos résultats révèlent un nouveau mécanisme d’action des antagonistes D2 et supportent un rôle primordial du glutamate et de l’adénosine dans les effets des antipsychotiques de première génération.
Resumo:
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique.
Resumo:
On ne compte plus le nombre de représentations ou d’adaptations sur la scène ou à l’écran de la pièce de théâtre d’Edmond Rostand, Cyrano de Bergerac. Celle-ci a bénéficié d’un succès considérable en France et dans le monde, de la date de sa première représentation, le 28 décembre 1897, jusqu’à nos jours. Son héros, Cyrano de Bergerac, s’appuie librement sur l’écrivain réel, Savinien de Cyrano de Bergerac, qui vécut au XVIIe siècle mais dont pratiquement plus personne ne connaît l’existence. Aujourd’hui, tout le monde éprouve admiration et tendresse à l’égard du duelliste au grand nez qui, par ses lettres amoureuses, aide le beau Christian à conquérir le cœur de Roxane; mais nul ne lit plus Savinien de Cyrano de Bergerac. Sans doute la pièce de Rostand possède-t-elle de réelles valeurs littéraires, une construction rigoureuse, des personnages élaborés, une écriture poétique et légère, de l’humour, de l’émotion… Et cependant, malgré ces qualités indéniables, il demeure difficile d’expliquer son triomphe. Nous posons l’hypothèse selon laquelle, c’est à la manière dont Edmond Rostand a fait de Cyrano de Bergerac un mythe littéraire entouré de symboles propres à une identité dans laquelle les Français sont susceptibles de se reconnaître - et grâce aussi à un contexte sociopolitique dont il a réussi, volontairement ou pas, à tirer grand parti - qu’est attribuable le succès démesuré de la pièce. Rostand a créé un évangile de cape et d’épée sur fond d’Affaire Dreyfus pour un univers théâtral qui intègre les symboles autour desquels les Français se retrouvent volontiers : gastronomie, élégance, faconde, galanterie, fidélité, honneur, patriotisme, … panache.
Resumo:
L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés.
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.