595 resultados para Notariat -- Dictionnaires
Resumo:
Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches.
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
La religion est un phénomène culturel universel et un sujet d'étude central en anthropologie. Pourtant, on constate un manque flagrant de consensus sur sa définition et son origine dans les manuels d'introduction et les dictionnaires d'anthropologie. Des hypothèses et des modèles explorant cette question sont toutefois disponibles depuis une vingtaine d'années du côté de la psychobiologie. Le présent projet cherche à déterminer si la définition et les explications de la religion que propose l'anthropologie sont compatibles, en tout ou en partie, avec les données et modèles de la psychobiologie. Une synthèse des hypothèses psychobiologiques est d'abord présentée; elle sert de point de comparaison analytique avec les théories anthropologiques de la religion. Deux de ces théories, celles de Edward Burnett Tylor ([1874] 1889) et Clifford Geertz ([1966] 2010), sont résumées et ensuite analysées en rapport avec leur définition de la religion, leurs éléments universels (explicites et implicites) et leurs principes théoriques. Ces deux auteurs sont reconnus pour leur influence majeure dans ce domaine et ils s'appuient sur des fondements théoriques opposés. L'analyse démontre que seule la théorie de Tylor confirme l'hypothèse de ce mémoire, à l'effet que certaines conceptions et explications anthropologiques de la religion sont compatibles avec les explications psychobiologiques. Malgré tout, une conciliation de l'ensemble des sources analysées et l'esquisse d'un modèle sur la nature et l'origine évolutive de la religion semblent se dessiner.
Resumo:
Étude de certains mots du vocabulaire typiquement nazi (« Art » (espèce), « Blut » (sang) et « Rasse » (race) ainsi que leurs composés) dans les dictionnaires de langue allemande (spécialement le Meyers Konversations-Lexikon) et les dictionnaires bilingues allemand/français (Larousse) pour la période 1925-1971 (apparition de nouveaux mots, redéfinitions de mots déjà existants dans les dictionnaires sous l’ère nazie et leur disparition et/ou redéfinition après 1945)
Resumo:
Cette étude vise à dégager certaines des traces des discours antérieurs (cotextuels) qui sont la matière même du roman « Allah n’est pas obligé », à la fois sur le plan de l’écriture et sur celui d’une mémoire douloureuse. Il s’agit de montrer que la « poétique de l’explication » qui caractérise le roman constitue une stratégie de dévoilement des rhétoriques fallacieuses destinées à occulter l’inadmissible. En effet, le recours constant aux dictionnaires n’est que l’effet le plus visible d’une poétique englobante qui consiste à confronter les uns aux autres les discours sur le monde, discours en deçà des mots inscrits dans le texte comme une mémoire en palimpseste, afin de faire ressortir leur incapacité à expliquer des réalités aussi inhumaines que le sort que subissent les enfants-soldats. Le roman de Kourouma met ainsi en évidence deux attitudes possibles face aux atrocités indicibles des guerres oubliées des temps présents : soit on en nie le caractère insensé en multipliant les discours d’explication, soit l’on dénonce toute tentative de manipulation des discours visant à rendre sensé l’insensé. La première posture est illustrée par le « blablabla » du narrateur Birahima ; la deuxième est celle du roman lui-même.
Resumo:
In 2005 it gave to beginning the project Ramon Llull, sponsored by the Notarial School of Valencia and developed by personnel of the Department of Civil Right and the Laboratory of Automated Cartography and SIG of the University Institute of Geography of the University of Alicante.(...)
Resumo:
Los avances tecnológicos y la entrada a una nueva era digital son una realidad presente en todos los aspectos de la sociedad actual. El mundo organizacional se incluye en esta nueva era digital modernizando sus procesos y soportando sus actividades empresariales en tecnologías de la información y comunicaciones. La inclusión en la era digital por parte de las organizaciones es un paso importante que se debe dar para obtener los crecientes beneficios que la tecnología ofrece. Esta transformación organizacional hacia la implementación de herramientas TIC, como soporte del quehacer misional, debe darse bajo unos lineamientos de planeación estratégica e integración organizacional. Este estudio contiene una revisión conceptual con los lineamientos que una empresa debe tener en cuenta al momento de implementar herramientas TIC a sus áreas y actividades. Los hallazgos teóricos planteados son llevados a la realidad estudiando cómo empresas de Bogotá adoptan recursos tecnológicos. Los resultados principales del estudio muestran que la agrupación empresarial clasificada como gran empresa es el segmento que mejor aplica los lineamientos teóricos para la implementación correcta de herramientas TIC en un ambiente organizacional. El segmento de mediana y pequeña empresa da muestras de uso de herramientas TIC, sin embargo se nota una debilidad en la falta de planeación estratégica e integración de estos recursos tecnológicos al sistema organizacional. Esta investigación concluye mostrando un conjunto de recomendaciones y hallazgos de acuerdo a los datos analizados.
Resumo:
Pós-graduação em Linguística e Língua Portuguesa - FCLAR
Resumo:
Este estudo tem por objetivo principal mapear uma parcela do corpus coletado por pesquisadores do projeto GeoLinTerm para a elaboração do Atlas Geossociolinguístico do Pará (ALIPA) no intento de projetar imagens prévias desse, no que se refere à variação lexical na zona rural do Estado. Para tanto, foram cartografados dados de doze municípios, sendo dois de cada uma das seis mesorregiões paraenses, quais sejam: Santarém e Oriximiná (Mesorregião do Baixo Amazonas); Anajás e Breves (Mesorregião do Marajó); Castanhal e Santo Antônio do Tauá (Mesorregião Metropolitana de Belém); Abaetetuba e Bragança (Mesorregião Nordeste); Altamira e Itaituba (Mesorregião Sudoeste); e Conceição do Araguaia e Redenção (Mesorregião Sudeste). Foram adotados os pressupostos teórico-metodológicos da Dialetologia e da Geografia Linguística, essas que, com o advento da Sociolinguística Labovina, passaram a controlar variantes sociais, como: sexo, idade, escolaridade dos informantes, além da variante geográfica tradicionalmente estudada, o que resultou no que se entende hoje por multidimensionalidade nos atlas linguísticos. Os dados foram selecionados, transcritos foneticamente, cartografados e discutidos. As análises foram realizadas no intuito de dar conta das dimensões diatópica, diagenérica e diageracional da variação ocorrida na fala dos informantes. Tratando as lexias cartografadas em cada carta lexical, foi realizado um levantamento do registro dessas lexias em dicionários de língua portuguesa e em outros estudos dialetológicos. Além disso, as variantes sociais são quantificadas em gráficos que demonstram as porcentagens de ocorrências das lexias mais recorrentes em cada carta. Como resultados obtivemos a produção de cinquenta cartas lexicais, dentre as quais, foram selecionadas as trinta mais produtivas do ponto de vista da variação lexical para serem apresentadas e discutidas neste trabalho. Observou-se que, em linhas gerais, se tomarmos o critério da predominância, os dados cartografados se organizam em agrupamentos lexicais de três tipos, formados a partir da distribuição geolinguística das lexias nos pontos de inquérito.
Resumo:
Appuyé sur le concept de lexiculture, proposé par R. Galisson (2000), et en reconnaissance de l’existence et de la dimension du mouvement Hip Hop en France, le but de cet article est d’examiner l’importance de cette culture et de son lexique dans le contexte français, soulignant aussi la nécessité de son insertion dans les matériels éducatifs destinés à l’enseignement du français langue étrangère (FLE). À cet effet, nous avons elaboré, à l’aide d’un système de traitement de corpus, une liste bilingue français-portugais brésilien de ce lexique, à partir des paroles des trois principaux artistes français. Il faut noter que la plupart de ces unités lexicales ne sont pas présentes dans les dictionnaires généraux bilingues, ce qui crée des difficultés aux apprenants ainsi qu’aux enseignants d’accès à ce lexique, qui coexiste avec la langue standard étudiée et qui représente une grande richesse linguistique.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Les expressions figées ont été longtemps considérées comme un aspect marginal de la langue. Il en résulte un traitement très fragmentaire et anarchique dans les dictionnaires, monolingues et bilingues, qui leur ont toujours accordé et continuent de leur accorder une petite place. Les expressions figées comportent, en outre, des difficultés de compréhension et de traduction dans la langue étrangère car elles possèdent des structures syntaxiques particulières qui n’ont pas toujours d’équivalents analogues dans d’autres langues. C’est pourquoi notre travail se donne pour objectif d’évaluer la traduction en italien et, pour quelques ouvrages aussi en espagnol, des québécismes phraséologiques, c’est-à-dire des expressions figées appartenant à la variété québécoise du français. Notre mémoire se divise en quatre chapitres. Le premier chapitre présentera les théories linguistiques élaborées au cours des deux derniers siècles, selon les différentes approches que les linguistes ont adoptées pour définir et classifier les expressions figées. Dans le deuxième chapitre, nous analyserons le traitement des expressions figées à l’intérieur des dictionnaires bilingues français-italien et français-espagnol, afin de déterminer dans quelle mesure ces outils peuvent satisfaire les exigences des traducteurs. Pour finir, nous expliquerons les problèmes liés à la traduction des expressions figées et les stratégies que les traducteurs adoptent pour résoudre ces problèmes.Dans le troisième chapitre nous nous concentrerons sur la variété diatopique du français du Québec et sur les particularités que les expressions figées québécoises présentent par rapport aux expressions figées du français de référence. Dans le quatrième et dernier chapitre, nous procèderons à l’analyse intralinguistique et contrastive des citations. L’analyse intralinguistique a été possible grâce à la consultation de plusieurs dictionnaires francophones, qui servent pour étudier le sens des québécismes et pour comprendre leur originalité par rapport au FrR. L’analyse contrastive permettra d’évaluer la traduction en italien et en espagnol des expressions figées québécoises.
Resumo:
Ce travail de recherche se base sur la traduction d’un texte littéraire du russe vers l’italien. Il s’agit d’un essai du psychanalyste N. E. Osipov, intitulé « Zapiski sumasšedšego », nezakončennoe proizvedenie L. N. Tolstogo (“Les mémoires d’un fou”, œuvre inaccomplie de L. N. Tolstoï ). Cet essai est une analyse de la vie et de la maladie de l’auteur des Mémoires du point de vue psychanalytique. En effet, Osipov fut l’un des représentants plus importants du mouvement psychanalytique en Russie. C’était un psychanalyste et il est considéré comme l’un des pionniers de la psychanalyse russe. En effet, il a joué un rôle très important en faveur de la diffusion des œuvres de Freud et de la psychanalyse dans son pays. En traduisant les œuvres de Freud, il a introduit la théorie et la langue psychanalytiques en Russie, surtout, parmi les intellectuels. Ce travail de recherche se compose de trois chapitres principaux. Dans le premier, les thèmes abordés sont : la naissance et la diffusion de la psychanalyse en Russie ; la vie et les œuvres psychanalytiques et littéraires de Osipov ; l’analyse du texte Les mémoire d’un fou. A l’intérieur du deuxième chapitre, on trouve la traduction italienne du texte de Osipov susmentionné. Enfin, le troisième chapitre contient une analyse du travail de traduction, c’est-à-dire une analyse des difficultés rencontrées et des choix de traduction effectués pour les surmonter, en utilisant plusieurs moyens comme des dictionnaires, des ouvrages spécialisés, même en langue originale, et des sites internet sur le thème de la psychanalyse. Le travail a été rédigé en italien, mais il contient beaucoup de citations en langue originale (russe) des textes utilisés pour la recherche. Il en résulte un apport très important pour comprendre la diffusion de la discipline psychanalytique en Russie et le rôle important joué par le psychanalyste Osipov de ce point de vue.