171 resultados para Langues
Resumo:
Cette mémoire a pour objectif de mettre en évidence le délaissement dont a souffert et souffre encore dans l’actualité l’enseignement de la prononciation dans les cours d’espagnol comme langue étrangère (ELE), réaffirmer son importance et défendre la nécessité de son intégration dans les salles de classe. C’est un fait qu’avec l’actuelle approche communicative et « par devoirs », les étudiants acquièrent des connaissances supérieures en langue écrite et des résultats peu satisfaisants dans la prononciation. D’autre part, les enseignants ne comptent pas sur des méthodes d’intégration de la prononciation de ces approches, et la carence de matériels se fait plus qu’évidente. Les conceptions curriculaires actuelles n’ont pas intégré de forme naturelle l’enseignement de la prononciation dans ses exposés méthodologiques. La sélection et analyse de certains des manuels d’enseignement d’ELE, avec ce dont on travaille actuellement dans la province du Québec, confirme ces carences. Dans la dernière partie du travail on présente une sélection d’exercices que l’on considère utiles pour l’enseignement et le développement de la prononciation, incluant les éléments suprasegmentaires, d’une façon ludique, dans un contexte réel et communicatif et de manière intégrée. Une didactique de l’enseignement qui prête attention au système formel de la langue, la grammaire et le lexique, peut aussi contempler l’enseignement de la prononciation depuis la même perspective. L’important c’est qu’elle soit intégrée comme une phase supplémentaire du processus d’apprentissage, et cesse d’être une matière à repasser dans les curriculums.
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
Thèse réalisée en cotutelle avec l'Université de Provence au sein du département d’études cinématographiques, U.F.R. Lettres et Arts, L.E.S.A. École doctorale Lettres, Langues et Arts. Soutenue publiquement à l'Université de Provence le 16 juillet 2010.
Resumo:
Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Cette thèse constitue une étude systématique du lexique du déné sųłiné, une langue athabaskane du nord-ouest canadien. Elle présente les définitions et les patrons de combinatoire syntaxique et lexicale de plus de 200 unités lexicales, lexèmes et phrasèmes, qui représentent une partie importante du vocabulaire déné sųłiné dans sept domaines: les émotions, le caractère humain, la description physique des entités, le mouvement des êtres vivants, la position des entités, les conditions atmospheriques et les formations topologiques, en les comparant avec le vocubulaire équivalent de l'anglais. L’approche théorique choisie est la Théorie Sens-Texte (TST), une approche formelle qui met l’accent sur la description sémantique et lexicographique empiriques. La présente recherche relève d'importantes différences entre le lexique du déné sųłiné et celui de l'anglais à tous les niveaux: dans la correspondence entre la représentation conceptuelle, considérée (quasi-)extralinguistique, et la structure sémantique; dans les patrons de lexicalisation des unités lexicales, et dans les patrons de combinatoire syntaxique et lexicale, qui montrent parfois des traits propres au déné sųłiné intéressants.
Resumo:
Les modèles de compréhension statistiques appliqués à des applications vocales nécessitent beaucoup de données pour être entraînés. Souvent, une même application doit pouvoir supporter plusieurs langues, c’est le cas avec les pays ayant plusieurs langues officielles. Il s’agit donc de gérer les mêmes requêtes des utilisateurs, lesquelles présentent une sémantique similaire, mais dans plusieurs langues différentes. Ce projet présente des techniques pour déployer automatiquement un modèle de compréhension statistique d’une langue source vers une langue cible. Ceci afin de réduire le nombre de données nécessaires ainsi que le temps relié au déploiement d’une application dans une nouvelle langue. Premièrement, une approche basée sur les techniques de traduction automatique est présentée. Ensuite une approche utilisant un espace sémantique commun pour comparer plusieurs langues a été développée. Ces deux méthodes sont comparées pour vérifier leurs limites et leurs faisabilités. L’apport de ce projet se situe dans l’amélioration d’un modèle de traduction grâce à l’ajout de données très proche de l’application ainsi que d’une nouvelle façon d’inférer un espace sémantique multilingue.
Resumo:
Alan Garcia, l’actuel président du Pérou, est un des politiciens les plus controversés dans l’histoire péruvienne. Le succès de sa carrière comme candidat est fort opposé aux résultats catastrophiques de sa première gestion présidentielle. Dans la culture populaire, les compétences discursives de Garcia, ainsi que le contraste entre son succès et ses pauvres performances en tant que président, l’ont élevé au rang de mythe. Ce travail de recherche présente une analyse pragmatique linguistique des stratégies discursives utilisées par le président Garcia dans son deuxième mandat (2001-2006). L’analyse sera centrée sur le rapport établi par Steven Pinker (2007) entre politesse positive et solidarité communale. Les travaux de Brown et Levinson (1978, 1987) et d’Alan Fiske (1991) sont notre base théorique. L’exclusion sociale d’une partie de la population électorale péruvienne, selon le point de vue de Vergara (2007), est l’élément clé pour mieux comprendre le succès de la stratégie discursive de Garcia. Vegara présente une analyse diachronique multi-variable de la situation politique péruvienne pour expliquer la rationalité de la population électorale péruvienne. À partir de cet encadrement théorique, nous procéderons à l’analyse lexicométrique qui nous permettra d’identifier les stratégies discursives utilisées dans le corpus des discours de Garcia qui a été choisi pour l’analyse. D’après le schéma de Pinker, les données obtenues seront classifiées selon la définition de politesse positive de Brown et Levinson. Finalement, nous évaluerons le rapport entre les résultats classifiés et le modèle de solidarité communale de Fiske. L’objectif est de démontrer que le style discursif de Garcia est structuré à partir d’une rationalité dont l’objet est de fermer la brèche sociale entre le politicien et l’électorat.
Resumo:
La présente étude avait pour objectif de décrire comment est enseignée (si elle l’est effectivement) la distinction d’emploi entre le passé composé et l’imparfait, une distinction aspectuelle posant problème aux apprenants du français langue seconde, dans trois classes de 3e à 5e années en immersion française précoce aux Territoires du Nord-Ouest et de décrire l’utilisation que font les enseignantes de ces temps verbaux. À partir de dix-neuf heures d’observation en classe et d’entretiens menés avec deux enseignantes, nous avons élaboré une proposition didactique basée sur la réflexion guidée avec exemples positifs et négatifs de Nadeau et Fisher (2006) mettant en évidence le contraste d’emploi entre le passé composé et l’imparfait. Cette proposition didactique fournit aux enseignantes une façon de l’enseigner alors qu’elles ne le font pas à ces niveaux, et aux apprenants, un intrant où la fréquence des emplois atypiques est plus grande que dans le discours de leur enseignante.
Resumo:
L’étude présente l’élaboration du premier outil d’évaluation normalisée du langage destiné aux enfants francophones d’âge préscolaire des pays africains qui se caractérisent par l’absence de services publics en orthophonie et la méconnaissance des retards de langage. En s’inspirant des techniques psychométriques langagières utilisées en Amérique du nord et en se basant sur les théories d’acquisition du langage, on a construit un outil appelé Batterie de tests de dépistage approfondi (BATEDA) qui compte onze tests répartis en trois sous-batteries évaluant respectivement l’intégrité des modalités de transmission du langage (BATEM), les composantes langagières (BATEL) et la mémoire verbale (TMV). A partir d’un échantillon de 159 enfants camerounais francophones, on a normalisé la batterie suivant la cote z et les rangs en centile. Les tests présentent une fiabilité inter-juge et intra-juge (p<0,05), une cohérence interne globale d’environ 96% (α de Cronbach=0,958) et une validité prédictive de la réussite scolaire des enfants (r=0,700). Les stratégies d’application de la BATEDA visent à favoriser la pratique du dépistage systématique et la prise en charge des retards de langage au Cameroun, en mettant à contribution les enseignants et les parents comme principaux intervenants. Les implications de cette étude sont de trois ordres : (1) une meilleure connaissance des difficultés langagières, la revalorisation des personnes atteintes et une attitude de vigilance sociale; (2) l’instauration de la pratique de dépistage précoce favorable à l’intervention; (3) une potentielle diminution du taux d’exclusion et d’abandon scolaire d’enfants présentant des retards langagiers à travers un enseignement ciblé en leur faveur.
Resumo:
Ce mémoire examine les questions à mouvement multiple en bulgare, en accordant une importance particulière aux mécanismes qui régissent l’ordre des syntagmes interrogatifs antéposés. Outre la présentation d’un phénomène linguistique complexe et très intéressant, l’étude propose un aperçu critique des hypothèses les plus importantes émises au fil des ans à propos des interrogatives multiples. Dans un premier temps, nous discutons des différentes approches renfermant l’idée que l’ordre des mots interrogatifs au début de la proposition dépend entièrement des règles syntaxiques. Ensuite, nous présentons les analyses qui tentent d’expliquer la problématique en faisant appel à des traits spécifiques des syntagmes Qu-, tels que [animé] ou [lié au discours]. Le rôle de la topicalisation et de la focalisation dans la formation des questions multiples, les projections fonctionnelles de la « périphérie gauche » en bulgare accueillant différents syntagmes, ainsi que la résomption comptent également parmi les sujets traités dans ce mémoire.
Resumo:
Ce mémoire porte sur les compétences et les sous-compétences en traduction et en interprétation et vise à dégager les convergences et les divergences entre les compétences requises dans les deux professions. L’étude pose comme hypothèse que la traduction et l’interprétation demandent des compétences et des sous-compétences spécifiques à chacune de ces activités. Sur le plan théorique, l’accent est mis sur la comparaison des éléments suivants : les définitions de traduction et interprétation, les codes d’éthique des associations, les programmes universitaires, les outils utilisés par les traducteurs et les interprètes et le métalangage des deux professions. Sur le plan expérimental, une enquête par questionnaire en ligne a été menée auprès des traducteurs et des interprètes professionnels dans le but de déterminer, dans la pratique, les points communs et les différences entre les deux professions. Les résultats montrent que les différences sont minimes et sont liées à l’aspect pratique de chacune des professions.
Resumo:
Différentes études ont montré que le niveau des futurs enseignants, issus des écoles publiques, en français langue étrangère (FLE) en Égypte est assez faible. Ceux-ci font un grand nombre d’erreurs répétitives à l’oral. Quoique ce manque de précision langagière puisse être dû à plusieurs facteurs, il appert que la rétroaction soit une des variables contribuant à ce phénomène (comme le nombre d’étudiants en classe, la durée du cours, l’âge et la motivation des étudiants, les méthodes d’enseignement, etc.). La rétroaction corrective est généralement définie comme toute correction explicite ou implicite de la part de l’enseignant indiquant que la production de l’apprenant est erronée. Elle est considérée comme indispensable dans les classes de langues secondes (LS) (Shmidt, 1983, 2001 ; Long, 1991, 1996 ; Lightbown, 1998). Pour ces raisons, cette étude porte sur la rétroaction corrective et, plus spécifiquement, sur les croyances des enseignants et des apprenants quant à celle-ci, ainsi qu’à son utilisation dans les classes de FLE en Égypte. Les recherches antérieures indiquent que les croyances des enseignants quant à l’acte d’enseigner influencent leurs pratiques en classe, que les croyances des apprenants influencent leur motivation, leur niveau et leurs efforts déployés pour l’apprentissage de la langue, et qu’une divergence entre les croyances des professeurs et celles des apprenants peut entraîner des effets négatifs sur l’apprentissage de la langue cible, ce qui indique ainsi qu’il est de grande importance d’explorer les croyances. Ainsi, la présente étude vise à explorer les croyances des professeurs égyptiens et celles de leurs étudiants en ce qui a trait à la rétroaction corrective à l’oral, la différence entre ces croyances, et l’identification des pratiques réelles des professeurs afin de décrire à quel point celles-ci reflètent les croyances exprimées. Pour ce faire, un questionnaire a été administré à 175 étudiants et 25 professeurs appartenant à trois universités égyptiennes afin de déterminer leurs croyances déclarées. Des entrevues semi-dirigées et des observations directes ont été réalisées auprès de neuf des 25 professeurs participants pour mieux déterminer leurs croyances et leurs pratiques rétroactives. Les résultats obtenus ont révélé qu’il existe des divergences importantes entre les croyances des professeurs et celles des étudiants, d’un côté, et entre les croyances des professeurs et leur pratique, de l’autre côté. Par exemple, la plupart des étudiants ont déclaré leur opposition à l’utilisation de la reformulation alors que presque la moitié des professeurs ont indiqué être en faveur de cette même technique. Les professeurs ont indiqué que leur choix de techniques rétroactives dépend du type d’erreurs et qu’ils préfèrent inciter les apprenants à s’auto corriger. Cependant, ces mêmes professeurs ont utilisé la reformulation pour corriger la majorité des erreurs de leurs apprenants, quelle que soit leur nature. Nous parvenons ainsi à la conclusion que l’utilisation de la reformulation, qui fait l’objet d’une divergence au niveau des croyances, pourrait être à l’origine du manque de précision langagière rapporté par les chercheurs.
Resumo:
Pour comprendre les différents rôles que joue la Télémachie dans l’Odyssée d’Homère, il faut explorer à fond le thème de l’identité. La structure de la Télémachie et les rôles accessoires qu’elle joue dans l’Odyssée contribuent à définir l’identité de Télémaque et celle d’Ulysse. À la fin du poème, même si Télémaque a intériorisé et accepté son origine filiale, son rôle social et l’identité qui y est associée sont laissés indéterminés au moment du retour de son père et en sont même la conséquence. Cela peut expliquer le manque de consensus chez les auteurs modernes en ce qui a trait au développement de Télémaque, ou à son statut social et héroïque (i.e. épithète, maturité, etc.). La Télémachie agit à titre d’élément déclencheur de l’initiation de Télémaque dans la vie héroïque mais le processus qui se poursuit, à la fin de l’Odyssée, y est laissé incomplet. L’étape finale, l’incorporation, durant laquelle la communauté reconnaît la nouvelle identité de Télémaque en tant que héros et adulte, prêt à assumer de plus grandes responsabilités, n’est pas présentée dans l’œuvre d’Homère.
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.