256 resultados para Écriture automatique
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.
Resumo:
La collaboration et le contenu généré par les usagers, aussi appelé « Web 2. 0 », sont des phénomènes nouveaux, qui bâtissent sur l'ouverture et le foisonnement d'Internet. Les environnements numériques qui emploient ces moyens mettent à contribution la communauté qui gravite autour d'une présence virtuelle afin d'en enrichir l’expérience. Suivant une approche constructiviste, nous explorons commnent la collaboration peut servir les usagers d'une banque de donnée de jugements en accès libre par Internet, comme le site de l'Institut canadien d'information juridique (www.CanLIT.org). La collaboration s'articule grâce à un gabarit d'analyse que nous nommons «Cadre de diffusion de la collaboration». Il comporte deux classes d'objets, les usagers et les documents, qui interagissent selon quatre relations : les liens documentaires, les échanges entre usagers, l'écriture (de l'usager vers le document) et la consommation (du document vers l'usager). Le Cadre de diffusion de la collaboration met en lumière les modalités de la collaboration comme mécanisme de création de contenu dans un contexte numérique, au profit d'une classe de documents. Suite à une analyse les modalités de la jurisprudence comme système documentaire et d'un exposé illustratif des besoins des usagers de la société civile, le Cadre de diffusion de la collaboration est employé pour explorer les mécanismes à retenir pour enrichir le contenu d'un système diffusant des jugements par Internet.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Cette thèse se concentre sur ce que j'appelle «l’espace négatif» de la représentation dans la poésie de Stevens comme étant un véritable espace d'engagement politique, une interprétation qui se distingue de la plus grande partie de la critique sur Stevens. En suivant les écrits philosophiques d'Emmanuel Levinas, j'affirme que l'emphase que Stevens place sur la représentation de la représentation elle-même ouvre un espace au-delà des limites rigides de l'identité-ce que Levinas appelle « le je [sujet] semblable », permettant un contact authentique avec « l'Autre» ainsi qu’avec le concept de « l'infini ». Bien que Stevens s’est farouchement opposé à la notion Romantique de la sublime transcendance, c’est-à-dire d'un espace censé exister en dehors des limites de l'imagination humaine, il se concerne néanmoins avec l'exploration d'un espace au-delà de l'identité individuelle. Pour Stevens, cependant, « la transcendance» est toujours, nécessairement, liée par les restrictions reconnues du langage humain et de l'imagination, et donc par la réalité du monde perceptible. Toute « transcendance» qui est recherchée ou atteinte, dans la poésie de Stevens ne devrait donc pas - ma thèse affirme - être entendu dans le sens sublime déterminé auparavant par les Romantiques. Une connexion plus appropriée peut plutôt être faite avec la transcendance concrète et immédiate décrit par Lévinas comme le «face à face ». L’attention que Stevens accordent aux notions concrètes et immédiates est souvent exprimé à travers son attention sur les qualités esthétiques de la langue. Sa poésie a en effet la poésie pour sujet, mais pas dans le sens solipsiste qui lui est souvent attribué. En se concentrant sur le processus actif et créateur inhérent à l'écriture et à la lecture de la poésie, Stevens explore la nature de l'Etre lui-même. Je compare cette exploration dans le travail de Stevens à celle du dessinateur, ou de l'artiste, et dans ma conclusion, je suggère les liens entre l'approche d'enquête de Stevens et celle d’artistes visuels contemporains qui se sont également engagés à la figuration du processus créatif. L’ artiste sud-africain William Kentridge est mon exemple principal , en raison de sa conviction que la méthode est intrinsèquement liée à l'engagement politique et social.
Resumo:
À la lecture d’ouvrages philosophiques anciens, nous sommes souvent surpris par la virulence des critiques adressées à l’écriture, dans la mesure où ces critiques nous parviennent au moyen de textes écrits. N’est-il pas paradoxal de tout à la fois rejeter et utiliser une même technologie ? Ou est-ce que les pratiques de l’oralité et de l’écriture des philosophes grecs, telles que ceux-ci les décrivent dans leurs ouvrages, peuvent être cohérentes avec leurs critiques ? Notre thèse visait, d’une part, à répondre à ce questionnement en confrontant les pratiques des philosophes anciens aux critiques qu’ils adressent à l’écriture, par le biais d’une étude systématique des discours sur la lecture et l’écriture dans des textes anciens d’auteurs et d’époques variés, et notamment des textes qui n’ont pas l’écriture pour objet. D’autre part, comme les travaux déjà publiés sur ce thème tentaient le plus souvent de trouver le point de rupture entre la tradition orale et la tradition écrite (cf. Havelock 1963, Lentz 1989), nous avons voulu inscrire notre objet d’étude dans une plus longue durée, ce qui nous a permis de constater qu’une rupture radicale entre les philosophes de tradition orale et ceux appartenant à la tradition écrite n’avait pas eu lieu, et que l’on observait plutôt une continuité des critiques et des pratiques de l’oralité et de l’écriture depuis l’époque classique jusqu’à l’Antiquité tardive. Malgré le développement de nouveaux supports matériels pour l’écriture, l’émergence d’une religion du livre, et la mise à l’écrit des poèmes homériques, la tradition philosophique grecque témoigne d’un usage circonspect de l’écriture et du refus de rejeter définitivement l’oralité.
Resumo:
L'appropriation culturelle possède une diffusion très large et est un phénomène essentiellement intemporel. L'appropriation culturelle est définie comme «the taking- from a culture that is not one’s own- of intellectual property, cultural expressions or artifacts, history and ways of knowledge» (Ziff et Rao 1997: 1). Cela comprend tous les aspects de la spiritualité, les objets sacrés, des valeurs, des histoires et des rites. L'appropriation est étroitement liée aux relations de pouvoir et à la politique. Avec la montée de la popularité du chamanisme et du néo-chamanisme dans la société occidentale, les peuples amérindiens de l'Amérique du Nord (ou d’Australie) expriment leurs inquiétudes et leur désapprobation en ce qui concerne l’appropriation de leurs cérémonies, rituels et croyances sacrées par les Occidentaux. Par le discours contre l'appropriation, les populations autochtones (re)gagnent et (re)créent une identité qui avait été négligée, supprimée et assimilée au cours de la colonisation. Cette création identitaire s’effectue par l'intermédiaire de l'écriture, dans les milieux universitaires, aussi non-académiques, et le partage des pratiques rituelles avec d'autres autochtones (pan amérindianisme). Les auteurs autochtones contestent le statu quo et désirent contribuer à faire avancer le débat concernant l'appropriation spirituelle, les relations de pouvoir et le néo-colonialisme. Les arguments et les opinions concernant l'appropriation spirituelle présentés ici traitent de génocide culturel, d’abus sexuels, de néo-colonialisme, de non-respect et d'inquiétude face aux dangers liés à une mauvaise utilisation des rituels et autres pratiques sacrées. Ce débat est lié au processus de guérison en contexte amérindien (Episkenew 2009). En participant à ce débat sur l'appropriation spirituelle, les peuples autochtones sont activement engagés dans la (re)définition de leur identité. C'est cet engagement actif qui permet à la guérison d’avoir lieu. Ce mémoire aborde quelques-uns des auteurs autochtones contemporains et examine leurs écrits. L'importance de l'histoire et du mot dans la création identitaire est explorée. L’analyse de certains textes portant sur la médecine, la sociologie, la religion et la culture de consommation rend explicite le lien entre identité et politique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal