996 resultados para Lexicologie Explicative et Combinatoire (LEC)
Resumo:
Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.
Resumo:
Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches.
Resumo:
Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Resumo:
En este trabajo nos proponemos analizar la colocación latina poena afficere, ‘imponer un castigo’, un tipo de colocación con especificidades tanto sintácticas como semánticas que la distinguen de las construcciones verbo-nominales más prototípicas: el sustantivo predicativo funciona no como Objeto Directo sino como tercer argumento del verbo soporte, un esquema sintáctico que, como intentaremos demostrar, resulta ideal para la expresión de predicados causativos. De los ejemplos documentados de poena afficere en un amplio corpus de textos, intentaremos destacar las principales características de este tipo de colocación. Para su descripción y formalización nos serviremos del marco teórico propuesto por la Teoría Sentido-Texto.
Resumo:
Ibn Khaldûn(1332-1406) fut homme d’Etat et historien des conflits et des changements politiques au Moyen-Orient et en Afrique du Nord. Il a écrit la Muqaddima, une vaste analyse du déclin de la civilisation arabe. Dans cet ouvrage l’ «éthique du Juste » est présentée comme l’obéissance à la loi et l’application des sciences rationnelles à la tradition. Ceci le mène à condamner l’ « éthique du Bien » en tant que calcul de son propre bonheur. Le conflit actuel reflète bien ce dualisme sous de nouvelles formes d’eudémonisme telle que l’utilitarisme. Sa théorie du changement politique et des conflits est toujours d’actualité : le développement économique conduit à la destruction des dynasties au pouvoir ; ce dernier repose sur l’Asabiya, une forme spécifique du capital social. Le pouvoir politique dure trois générations et connaît une évolution faite d’essor, d’apogée et de déclin. Cette théorie des « trois phases » du développement permet de mieux comprendre les conflits que connaît actuellement le monde arabe.
Resumo:
Mode of access: Internet.
Resumo:
En raison de sa force explicative et opérationnelle, la théorie du choix rationnel est utilisée au sein de plusieurs disciplines des sciences sociales. Alors que la majorité des économistes conçoivent la théorie du choix rationnel comme un processus de maximisation de l’utilité, la portée de ce modèle est le sujet de nombreuses critiques. Pour plusieurs, certaines préférences ne peuvent être modulées à l’intérieur de ce cadre. Dans ce mémoire, trois conceptions alternatives de la théorie du choix rationnel sont présentées : la rationalité comme présence virtuelle, la rationalité comme mécanisme intentionnel et la rationalité en tant que science du choix. Une analyse critique de celles-ci est effectuée. En design institutionnel, ces trois conceptions de la rationalité offrent des perspectives distinctes. La première met l’emphase sur les motivations non-égocentriques. La seconde mise sur l’aspect adaptatif du processus. La rationalité jouant un rôle privilégié, mais non exclusif, les mécanismes causaux doivent également être considérés. La troisième implique de formuler des règles institutionnels différentes dépendamment du modèle de l’agent rationnel qui est mis de l’avant. L’établissement de règles institutionnelles varie en fonction de la conception adoptée parmi ces théories du choix rationnel.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
La formation de la main-d’œuvre est l’objet d’une littérature scientifique abondante depuis plusieurs années. D’une manière générale, les principaux sujets étudiés dans la littérature scientifique, les travaux empiriques et dans les politiques publiques traitent du rendement de la formation de la main-d’œuvre ou plus récemment de la dimension stratégique de la formation de la main-d’œuvre sur la performance organisationnelle. Or, les résultats produits sont mitigés, peu convaincants, voire contradictoires (Cedefop, 2013, 2005). En conséquence, les chefs d’entreprises et les décideurs en matière de politiques publiques manquent de démonstrations claires pour évaluer les impacts de la formation sur la performance des organisations. Dans cette recherche, nous proposons justement d’apporter un nouvel éclairage théorique et empirique pour mieux comprendre les caractéristiques des entreprises qui évaluent le rendement de la formation, comment le font-elles et quelles sont les retombées perçues en la matière. Sur le plan théorique, cette recherche mobilise trois approches différentes dans un modèle analytique qui se veut intégratif. Dans la partie plutôt hypothético-déductive, la théorie du capital humain ainsi que le modèle de Kirkpatrick et de la gestion stratégique de ressources humaines permettent de vérifier la rationalité des employeurs en matière d’évaluation de la formation et de la perception de son rendement. Dans la partie la plus exploratoire de la thèse, nous avons mobilisé les pouvoirs conceptuels et explicatifs de l’approche institutionnaliste pour comprendre le comportement des organisations qui ne font pas d’évaluation formelle mais qui perçoivent quand même des retombées positives de leurs activités de formation. Sur le plan méthodologique, il s’agit d’une recherche explicative et d’une démarche en partie exploratoire quantitative faite à partir des données de l’enquête menée en 2003 par Emploi-Québec et l’Institut de la statistique du Québec auprès de 4600 entreprises assujetties à la Loi favorisant le développement et la reconnaissance des compétences de la main-d’œuvre. Nos principaux résultats de recherche soutiennent l’existence de trois types de facteurs explicatifs de la perception des retombées de la formation : des facteurs liés à l’organisation (profil et expérience en formation), des facteurs liés à la nature de la formation et des facteurs liés à l’intervention institutionnelle en matière de formation.
Resumo:
La méthodologie proposée vise à estimer les sensibilités des revenus de trois caisses d'épargne et de crédit par rapport aux modifications de taux d'intérêt. Plusieurs études basées sur le MEDAF permettent d'analyser la relation rendement risque. Notre méthodologie se démarque par l'inclusion d'un facteur taux d'intérêt comme variable explicative et par la segmentation des activités à l'intérieur d'une même caisse d'épargne et de crédit. Notre démarche se détaille comme suit: présentation du cadre conceptuel, laquelle comporte une brève revue de la littérature théorique et empirique et résume l'évolution du sujet; description de la procédure utilisée, de l'échantillon et de l'estimation; l'analyse et l'interprétation des résultats obtenus pour trois caisses. Un cahier des procédures expliquant le programme développé pour l'analyse (sur GAUSS) est présenté en annexe.
Resumo:
Avec l’apparition de plus en plus de souches de bactérie résistante aux antibiotiques, le développement de nouveaux antibiotiques est devenu une important problématique pour les agences de santé. C’est pour cela que la création de nouvelles plateformes pour accélérer la découverte de médicaments est devenu un besoin urgent. Dans les dernières décennies, la recherche était principalement orientée sur la modification de molécules préexistantes, la méta-analyse d’organismes produisant des molécules activent et l’analyse de librairies moléculaires pour trouver des molécules synthétiques activent, ce qui s’est avéré relativement inefficace. Notre but était donc de développer de nouvelles molécules avec des effets thérapeutiques de façon plus efficace à une fraction du prix et du temps comparé à ce qui se fait actuellement. Comme structure de base, nous avons utilisé des métabolites secondaires qui pouvaient altérer le fonctionnement des protéines ou l’interaction entre deux protéines. Pour générer ces molécules, j’ai concentré mes efforts sur les terpènes, une classe de métabolites secondaires qui possède un large éventail d’activités biologiques incluant des activités antibactériennes. Nous avons développé un système de chromosome artificiel de levure (YAC) qui permet à la fois l’assemblage directionnel et combinatoire de gènes qui permet la création de voies de biosynthèse artificielles. Comme preuve de concept, j’ai développé des YACs qui contiennent les gènes pour l’expression des enzymes impliquées dans la biosynthèse de la -carotène et de l’albaflavenone et produit ces molécules avec un haut rendement. Finalement, Des YACs produits à partir de librairies de gènes ont permis de créer une grande diversité de molécules.