14 resultados para Word Sense Disambiguation

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La supériorité des prothèses mandibulaires retenues par deux implants (IODs) sur les prothèses conventionnelles (CDs) nécessitent d’être éclaircies notamment en rapport à leur influence sur la qualité de vie reliée à la santé bucco-dentaire (OHRQoL) ainsi que sur la stabilité de cet effet de traitement. De plus, l’influence des facteurs psychologiques, tel que le sens de cohérence (SOC), sur l’effet de traitement reste encore inconnue. Le but de cette étude est de déterminer l’amplitude de l’influence du port des IODs et des CDs sur l’OHRQoL et d’évaluer la stabilité de l’effet de traitement dans le temps, tout en prenant en considération le niveau du SOC. MÉTHODOLOGIE: Des participants édentés (n=172, âge moyen 71, SD = 4.5) ayant reçu des CDs ou des IODs ont été suivis sur une période de deux ans. L’OHRQoL a été évaluée à l’aide du questionnaire « Oral Health Impact Profile (OHIP -20) » et ce avant le traitement et à chacun des deux suivis. Le SOC a été évalué à l’aide du questionnaire « The Orientation to Life (SOC -13) » à chacun des deux suivis. Des analyses statistiques ont été effectuées pour évaluer les différences intra et entre groupes (analyses statistiques descriptives, bivariées et multivariées). RÉSULTATS: Une amélioration statistiquement significative de l’OHRQoL entre les statuts avant et après traitement a été notée dans les deux groupes (Wilks’s Lambda = 0.473, F (1,151) = 157.31, p < 0.0001). L’amplitude de l’effet du traitement IOD est 1.5 fois plus grande que celle du traitement CD. Ces résultats ont été stables pendant les deux années d’étude et ils n’ont pas été influencés par le SOC. CONCLUSION: Le traitement IOD amène une meilleure OHRQoL à long terme en comparaison avec le traitement CD et ce sans influence du niveau du SOC. Ces résultats sont cliniquement significatifs et confirment la supériorité des IODs sur les CDs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'économie de la Chine a connu au cours des trois dernières décennies une effervescence sans précédent. Dorénavant ouvert sur le monde, ce nouveau marché de près de 1,3 milliard d'individus possède un potentiel commercial et des perspectives de croissance n'ayant aucun équivalent en Occident. Toutefois, partir à la conquête de l'Empire du Milieu peut s'avérer être une aventure périlleuse pour celui qui ne maîtrise pas le cadre contextuel et légal dans lequel les affaires s'opèrent en ces lieux. Le présent mémoire se veut une étude en deux parties des considérations afin de mener à terme avec succès un projet d'investissement en sol chinois. Dans un premier temps, la présente étude tente de démystifier le climat économique, social et légal entourant le monde des affaires en Chine. L'investisseur étranger a tout intérêt à comprendre cet environnement dans lequel nos repères occidentaux sont parfois inexistants. Il s'agit donc, initialement, de comprendre l'évolution récente de ce pays et les transformations profondes que la Chine a connues dans les dernières décennies. Du socialisme à l'économie de marché, le plus grand marché potentiel sur terre s'est ouvert progressivement sur le monde. Sans délai, l'investissement étranger a alors afflué massivement en ces lieux. Fort de l'évolution de son environnement légal, qui se poursuit d'ailleurs toujours à l'heure actuelle, quels sont les principaux enjeux et défis pour un investisseur étranger en Chine? Parmi différentes considérations, l'investisseur étranger doit s'intéresser particulièrement à la place qu'occupent les autorités gouvernementales dans les transactions privées, à la force obligatoire des ententes commerciales et à la résolution de conflits éventuels. Dans un second temps, la présente étude couvre les principales formes juridiques d'investissement accessibles aux investisseurs étrangers afin d'exploiter ou de participer à l'exploitation d'une entreprise en sol chinois. Il s'agit, pour chacune d'entre elles, d'analyser le droit positif posé par le législateur ainsi que de le compléter avec certains éléments pratiques soulevés par des observateurs en la matière. Il s'ensuivra une analyse des différents mécanismes d'acquisition d'entreprise par les investisseurs étrangers. Ultimement, l'étude de cette seconde partie mènera à une analyse comparative des incidences pratiques relativement aux différentes formes d'établissement ou d'acquisition d'entreprise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente une étude de la morphologie de ce qui est généralement appelé le pluriel nominal du persan (parler de Téhéran) dans le cadre d’une théorie de la morphologie basée sur le mot : Whole Word Morphology, développée par Ford et Singh (1991). Ce modèle lexicaliste adopte une position plus forte que les modèles proposés par Aronoff (1976) et Anderson (1992) en n’admettant aucune opération morphologique sur des unités plus petites que le mot. Selon cette théorie, une description morphologique consiste en l’énumération des Stratégies de Formation de Mots (SFM), licencées chacunes par au moins deux paires de mots ayant la même covariation formelle et sémantique. Tous les SFM suit le même schéma. Nous avons répertorié 49 SFM regroupant les pluriels et les collectifs. Nous constatons qu’il est difficile de saisir le pluriel nominal du persan en tant que catégorie syntaxique et que les différentes « marques du pluriel » présentées dans la littérature ne constituent pas un ensemble homogène : elles partagent toutes un sens de pluralité qui cependant varie d’une interprétation référentielle à une interprétation collective non-référentielle. Cette étude vise la déscription de la compétence morphologique, ce qui ne dépend d’aucune considération extralinguistique. Nous argumentons notamment contre la dichotomie arabe/persan généralement admise dans la littérature. Nous avons également fourni des explications quant à la production des pluriels doubles et avons discuté de la variation supposée du fait d’un choix multiple de « marques du pluriel ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des recherches antérieures sur les émotions en contexte organisationnel, notamment autour des notions de travail émotionnel, de contrat psychologique et d'équité, ont souvent soulevé la question de la rationalité et du caractère approprié ou non des manifestations émotionnelles, ainsi que sur les mécanismes utilisés pour contrôler et modérer celles-ci. Cependant, peu de recherche empirique a été effectuée sur la façon dont les employés eux-mêmes font sens de leurs émotions au travail et le processus par lequel ils parviennent à rendre celle-ci compréhensibles et légitimes, à la fois pour eux-mêmes et pour autrui. Au cours des dernières années, un courant de recherche émergent tend toutefois à mettre de côté la perspective normative / rationaliste pour soulever ce type de questions. Ainsi, au lieu d'être considérées comme des expériences strictement subjectives, privées, voire inaccessibles, les émotions y sont envisagées à travers les discours et les mises en récits dont elles font l’objet. Les émotions apparaissent ainsi non seulement exprimées dans le langage et la communication, mais construites et négociées à travers eux. La recherche présente développe empiriquement cette perspective émergente, notamment en faisant appel aux théories du sensemaking et de la narration, à travers l’analyse détaillée des récits de quatre employés chargés du soutien à la vente pour un revendeur de produits informatiques. En demandant à mes sujets de parler de leurs expériences émotionnelles et en analysant leurs réponses selon une méthodologie d’analyse narrative, cette recherche explore ainsi la façon dont les employés parviennent à construire le sens et la légitimité de leurs expériences émotionnelles. Les résultats suggèrent entre autres que ces processus de construction de sens sont très étroitement liés aux enjeux d’identité et de rôle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour exprimer ou définir une idée nouvelle, Derrida détourne souvent le sens d’un mot en se l’appropriant. La relation de Derrida avec les idées est telle que leur transmission passe par un vocabulaire spécifique, notamment l’analyse de l’étymologie (vraie et fausse). Mais quelle est sa conception du mot ? Quelles en sont les implications et les conséquences ? Pour répondre à ces questions, l’approche la plus féconde consiste à suivre au plus près celle que Derrida utilise en abordant la langue par rapport à la grammaire au sens large (c’est-à-dire tout ce qui fait événement dans la langue). En effet, la relation entre le mot et l’idée prend tout son sens dans l’analyse de certaines scènes bibliques, telles celles de la Genèse ou encore du mythe de Babel. Le fameux énoncé inaugural de l’Évangile de Jean, « Au commencement était la parole... », fait retour dans l’œuvre de Derrida, où il connaît plusieurs variations : il mérite examen, dans la perspective d’une déconstruction du logos et des origines de la langue. Le corpus de notre étude porte principalement sur trois textes de Jacques Derrida : « Des tours de Babel » (L’art des confins, PUF, 1979), Schibboleth – Pour Paul Celan (Galilée, 1986) et Donner la mort (Galilée, 1999), ces textes permettant tous une interrogation de l’« intention » divine dans le langage. Notre visée, en privilégiant dans l’œuvre derridienne ces « exemples » bibliques, est d’étudier la démarche de Derrida dans la « création » d’une langue, aspect qui a toujours été inséparable de l’élaboration de sa philosophie et auquel il a accordé la plus grande attention. À terme, ce travail se veut une contribution à la pensée du philosophe, portant sur un aspect capital de son travail et battant en brèche l’idée que son écriture est « absconse » ou « hermétique », alors qu’il y va pour lui de la mise en œuvre de sa manière même de concevoir la langue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).