71 resultados para Contrastive linguistics


Relevância:

10.00% 10.00%

Publicador:

Resumo:

réalisé en cotutelle à l'Université de Franche-Comté (France)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans de nombreux comportements qui reposent sur le rappel et la production de séquences, des groupements temporels émergent spontanément, créés par des délais ou des allongements. Ce « chunking » a été observé tant chez les humains que chez certains animaux et plusieurs auteurs l’attribuent à un processus général de chunking perceptif qui est conforme à la capacité de la mémoire à court terme. Cependant, aucune étude n’a établi comment ce chunking perceptif s’applique à la parole. Nous présentons une recension de la littérature qui fait ressortir certains problèmes critiques qui ont nui à la recherche sur cette question. C’est en revoyant ces problèmes qu’on propose une démonstration spécifique du chunking perceptif de la parole et de l’effet de ce processus sur la mémoire immédiate (ou mémoire de travail). Ces deux thèmes de notre thèse sont présentés séparément dans deux articles. Article 1 : The perceptual chunking of speech: a demonstration using ERPs Afin d’observer le chunking de la parole en temps réel, nous avons utilisé un paradigme de potentiels évoqués (PÉ) propice à susciter la Closure Positive Shift (CPS), une composante associée, entre autres, au traitement de marques de groupes prosodiques. Nos stimuli consistaient en des énoncés et des séries de syllabes sans sens comprenant des groupes intonatifs et des marques de groupements temporels qui pouvaient concorder, ou non, avec les marques de groupes intonatifs. Les analyses démontrent que la CPS est suscitée spécifiquement par les allongements marquant la fin des groupes temporels, indépendamment des autres variables. Notons que ces marques d’allongement, qui apparaissent universellement dans la langue parlée, créent le même type de chunking que celui qui émerge lors de l’apprentissage de séquences par des humains et des animaux. Nos résultats appuient donc l’idée que l’auditeur chunk la parole en groupes temporels et que ce chunking perceptif opère de façon similaire avec des comportements verbaux et non verbaux. Par ailleurs, les observations de l’Article 1 remettent en question des études où on associe la CPS au traitement de syntagmes intonatifs sans considérer les effets de marques temporels. Article 2 : Perceptual chunking and its effect on memory in speech processing:ERP and behavioral evidence Nous avons aussi observé comment le chunking perceptif d’énoncés en groupes temporels de différentes tailles influence la mémoire immédiate d’éléments entendus. Afin d’observer ces effets, nous avons utilisé des mesures comportementales et des PÉ, dont la composante N400 qui permettait d’évaluer la qualité de la trace mnésique d’éléments cibles étendus dans des groupes temporels. La modulation de l’amplitude relative de la N400 montre que les cibles présentées dans des groupes de 3 syllabes ont bénéficié d’une meilleure mise en mémoire immédiate que celles présentées dans des groupes plus longs. D’autres mesures comportementales et une analyse de la composante P300 ont aussi permis d’isoler l’effet de la position du groupe temporel (dans l’énoncé) sur les processus de mise en mémoire. Les études ci-dessus sont les premières à démontrer le chunking perceptif de la parole en temps réel et ses effets sur la mémoire immédiate d’éléments entendus. Dans l’ensemble, nos résultats suggèrent qu’un processus général de chunking perceptif favorise la mise en mémoire d’information séquentielle et une interprétation de la parole « chunk par chunk ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans le cadre de l'harmonisation des langues africaines transfrontalières à tradition écrite émergente au moyen des Technologies de l’information et de la communication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’explorer et d’analyser la réception de l’œuvre d’Eugen Wüster afin d’expliquer comment ses travaux ont influencé le développement disciplinaire de la terminologie. Du point de vue historique, les travaux de Wüster, en particulier la Théorie générale de la terminologie, ont stimulé la recherche en terminologie. Malgré des opinions divergentes, on s’entend pour reconnaître que les travaux de Wüster constituent la pierre angulaire de la terminologie moderne. Notre recherche vise spécifiquement à explorer la réception de l’œuvre wüsterienne en étudiant les écrits relatifs à cette œuvre dans la littérature universitaire en anglais, en espagnol et en français entre 1979 et 2009, en Europe et en Amérique. Réalisée dans le cadre du débat sur la réception de l’œuvre de Wüster, cette étude se concentre exclusivement sur l’analyse des critiques et des commentaires de son œuvre. Pour ce faire, nous avons tenu compte de la production intellectuelle de Wüster, de sa réception positive ou négative, des nouvelles approches théoriques en terminologie ainsi que des études portant sur l’état de la question en terminologie entre 1979 et 2009. Au moyen d’une recherche qualitative de type exploratoire, nous avons analysé un corpus de textes dans lesquels les auteurs : a. ont cité textuellement au moins un extrait d’un texte écrit par Wüster ; b. ont référé aux travaux de Wüster dans la bibliographie de l’article ; ou c. ont fait un commentaire sur ces travaux. De cette manière, nous avons cerné les grandes lignes du débat autour de la réception de son œuvre. Les résultats de notre étude sont éloquents. Ils offrent une idée claire de la réception des travaux de Wüster dans la communauté scientifique. Premièrement, Wüster représente une figure centrale de la terminologie moderne en ce qui concerne la normalisation terminologique. Il fut le premier à proposer une théorie de la terminologie. Deuxièmement, la contextualisation appropriée de son œuvre constitue un point de départ essentiel pour une appréciation éclairée et juste de sa contribution à l’évolution de la discipline. Troisièmement, les résultats de notre recherche dévoilent comment les nouvelles approches théoriques de la terminologie se sont adaptées aux progrès scientifiques et techniques. Quatrièmement, une étude menée sur 166 articles publiés dans des revues savantes confirme que l’œuvre de Wüster a provoqué des réactions variées tant en Europe qu’en Amérique et que sa réception est plutôt positive. Les résultats de notre étude font état d’une tendance qu’ont les auteurs de critiquer les travaux de Wüster avec lesquels, dans la plupart des cas, ils ne semblent cependant pas être bien familiarisés. La « méthodologie des programmes de recherche scientifique », proposée par Lakatos (1978) et appliquée comme un modèle interprétatif, nous a permis de démontrer que Wüster a joué un rôle décisif dans le développement de la terminologie comme discipline et que la terminologie peut être perçue comme un programme de recherche scientifique. La conclusion principale de notre thèse est que la terminologie a vécu des changements considérables et progressifs qui l’ont aidée à devenir, en termes lakatosiens, une discipline forte tant au plan théorique que descriptif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VERSION ANGLAISE DISPONIBLE AU DÉPARTEMENT; THÈSE RÉALISÉE CONJOINTEMENT AVEC L'ÉCOLE DES SCIENCES DE LA COMMUNICATION DE L'UNIVERSITÉ MCGILL (DRS. K. STEINHAUER ET J.E. DRURY).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Étude de certains mots du vocabulaire typiquement nazi (« Art » (espèce), « Blut » (sang) et « Rasse » (race) ainsi que leurs composés) dans les dictionnaires de langue allemande (spécialement le Meyers Konversations-Lexikon) et les dictionnaires bilingues allemand/français (Larousse) pour la période 1925-1971 (apparition de nouveaux mots, redéfinitions de mots déjà existants dans les dictionnaires sous l’ère nazie et leur disparition et/ou redéfinition après 1945)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons une méthode hybride pour le résumé de texte, en combinant l'extraction de phrases et l'élagage syntaxique des phrases extraites. L'élagage syntaxique est effectué sur la base d’une analyse complète des phrases selon un parseur de dépendances, analyse réalisée par la grammaire développée au sein d'un logiciel commercial de correction grammaticale, le Correcteur 101. Des sous-arbres de l'analyse syntaxique sont supprimés quand ils sont identifiés par les relations ciblées. L'analyse est réalisée sur un corpus de divers textes. Le taux de réduction des phrases extraites est d’en moyenne environ 74%, tout en conservant la grammaticalité ou la lisibilité dans une proportion de plus de 64%. Étant donné ces premiers résultats sur un ensemble limité de relations syntaxiques, cela laisse entrevoir des possibilités pour une application de résumé automatique de texte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This research project is a contribution to the global field of information retrieval, specifically, to develop tools to enable information access in digital documents. We recognize the need to provide the user with flexible access to the contents of large, potentially complex digital documents, with means other than a search function or a handful of metadata elements. The goal is to produce a text browsing tool offering a maximum of information based on a fairly superficial linguistic analysis. We are concerned with a type of extensive single-document indexing, and not indexing by a set of keywords (see Klement, 2002, for a clear distinction between the two). The desired browsing tool would not only give at a glance the main topics discussed in the document, but would also present relationships between these topics. It would also give direct access to the text (via hypertext links to specific passages). The present paper, after reviewing previous research on this and similar topics, discusses the methodology and the main characteristics of a prototype we have devised. Experimental results are presented, as well as an analysis of remaining hurdles and potential applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un débat perdure toujours entre les partisans du relativisme linguistique et ceux qui penchent plutôt pour l’universalisme. Depuis Whorf, plusieurs expériences ont été menées pour déterminer si la langue avait une influence sur l’esprit d’un individu, mais très peu ont porté sur la pragmatique. Je propose d’explorer le relativisme linguistique selon la perspective de la pragmatique du langage. Deux approches théoriques en pragmatique s’opposent sur la question du relativisme : l’ethnopragmatique et la théorie de la pertinence. En utilisant des modèles de l’interaction culturelle en anthropologie, en particulier les idées de Bourdieu et le concept d’assemblage, je démontre que la flexibilité de la théorie de la pertinence permettrait d’y intégrer une composante relativiste, et ce, sans avoir à la dénaturer. Pour illustrer cette possibilité, j’introduis l’Identité Cognitive qui agit comme composante relativiste tout en permettant une interaction avec la pertinence universaliste du modèle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fin du XVe siècle marque le début d’une nouvelle ère dans les Amériques. L’arrivée des explorateurs, des conquistadores et des colonisateurs espagnols au nouveau continent signe l’introduction des Amériques dans l’histoire. Dans les écrits rédigés durant les premières décennies de la colonisation, les Autochtones endossent majoritairement le rôle d’objet. À la suite de l’endoctrinement d’une partie de la population autochtone, ce rôle passif se transforme en rôle davantage actif alors que certains Autochtones décident de prendre la parole et la plume. Voilà ce que Felipe Guamán Poma de Ayala décide de faire par l’entremise de sa chronique Nueva coronica y buen gobierno, rédigé en 1615 et adressé au roi Philippe III d’Espagne. Ce mémoire étudie une sélection d’images de la chronique comme traductions culturelles intersémiotiques de la société coloniale dans la mesure où elles traduisent le vécu colonial, y compris les rapports de pouvoir ethniques au sein de la hiérarchie sociale, à l’aide d’unités sémiotiques provenant de divers codes culturels (espagnol, catholique et andin). L’objectif de ce projet de recherche consiste à démontrer la façon dont l’hybridité du système sémiotique du texte cible expose la nature aliénante de la traduction ainsi que la relation antagonique qu’elle entretient avec l’idéologie coloniale officielle.