488 resultados para Escolasticismo-Diccionarios


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Informe de investigación realizado a partir de una estancia en el Équipe de Recherche en Syntaxe et Sémantique de la Université de Toulouse-Le Mirail, Francia, entre julio y setiembre de 2006. En la actualidad existen diversos diccionarios de siglas en línea. Entre ellos sobresalen Acronym Finder, Abbreviations.com y Acronyma; todos ellos dedicados mayoritariamente a las siglas inglesas. Al igual que los diccionarios en papel, este tipo de diccionarios presenta problemas de desactualización por la gran cantidad de siglas que se crean a diario. Por ejemplo, en 2001, un estudio de Pustejovsky et al. mostraba que en los abstracts de Medline aparecían mensualmente cerca de 12.000 nuevas siglas. El mecanismo de actualización empleado por estos recursos es la remisión de nuevas siglas por parte de los usuarios. Sin embargo, esta técnica tiene la desventaja de que la edición de la información es muy lenta y costosa. Un ejemplo de ello es el caso de Abbreviations.com que en octubre de 2006 tenía alrededor de 100.000 siglas pendientes de edición e incorporación definitiva. Como solución a este tipo de problema, se plantea el diseño de sistemas de detección y extracción automática de siglas a partir de corpus. El proceso de detección comporta dos pasos; el primero, consiste en la identificación de las siglas dentro de un corpus y, el segundo, la desambiguación, es decir, la selección de la forma desarrollada apropiada de una sigla en un contexto dado. En la actualidad, los sistemas de detección de siglas emplean métodos basados en patrones, estadística, aprendizaje máquina, o combinaciones de ellos. En este estudio se analizan los principales sistemas de detección y desambiguación de siglas y los métodos que emplean. Cada uno se evalúa desde el punto de vista del rendimiento, medido en términos de precisión (porcentaje de siglas correctas con respecto al número total de siglas extraídas por el sistema) y exhaustividad (porcentaje de siglas correctas identificadas por el sistema con respecto al número total de siglas existente en el corpus). Como resultado, se presentan los criterios para el diseño de un futuro sistema de detección de siglas en español.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Informe de investigación realizado a partir de una estancia con el grupo de investigación de Innovación y Evaluación Educativa Andaluza (HUM-311) de la Universidad de Málaga durante los meses de mayo i julio del 2006. En la actualidad existen diversos diccionarios de siglas en línea. La memoria del trabajo realizado durante la debe comprenderse en su articulación al proyecto de investigación doctoral que actualmente se está desarrollando y que esta centrado en los procesos de formación en la Universidad, denominado de manera preliminar “La formación en el contexto universitario, la experiencia de una profesora y sus alumnos”. El estudio fue planteado des de una metodología cualitativa con el objetivo de profundizar en la complejidad de la formación en el contexto universitario, concretamente a través de la experiencia de profesores que participan en el grupo de investigación de Innovación y Evaluación Educativa Andaluza (HUM-311) y sus estudiantes, a fin de reflexionar sobre la relación de profesores y alumnos en los procesos de enseñanza y aprendizaje, interesada particularmente en participar de sus conversaciones, para profundizar en el conocimiento profesional que estan co-construyendo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En aquest treball s’analitza la introducció d’abreviatures en el Diccionario de la Real Academia Española, especialment les relacionades amb el lèxic específic, en la 1ª edició d’Autoridades (1726), en la incompleta 2ª edició d’Autoridades (1770) i en la 1ª ed. del DRAE (1780). Després de l’anàlisi, es manifesta la modernitat de la 2ª edició d’Autoridades (1770), ja que institucionalitza un sistema amb abreviatures diatècniques que arriba fins ara i influeix en nombrosos diccionaris. A més a més, es comprova que la 1ª ed. del DRAE (1780) consolida i amplia aquest recurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente investigación es analizar el tratamiento que algunos de los diccionarios generales monolingües del español aparecidos en los últimos diez años han dado al fenómeno de las colocaciones léxicas, a saber, aquellas combinaciones de palabras que, desde el punto de vista de la norma, presentan ciertas restricciones combinatorias, esencialmente de carácter semántico, impuestas por el uso (Corpas: 1996). Los repertorios objeto de análisis han sido: el "Diccionario Salamanca de la lengua española", dirigido por Juan Gutiérrez (1996); el "Diccionario del español actual", de Manuel Seco, Olimpia Andrés y Gabino Ramos (1999); la vigésima segunda edición del diccionario de la RAE (2001); y el "Gran diccionario de uso del español actual. Basado en el corpus Cumbre", dirigido por Aquilino Sánchez (2001). Nuestro estudio se ha fundamentado en un corpus de 52 colocaciones léxicas confeccionado a partir del análisis de las subentradas contenidas en la letra "b" de cada uno de los diccionarios seleccionados. Posteriormente, hemos examinado las entradas correspondientes a cada uno de los elementos que constituyen la colocación (base y colocativo) con el fin de observar si los diccionarios estudiados dan cuenta de estas mismas combinaciones en otras partes del artículo lexicográfico, como son las definiciones o los ejemplos. A la hora de analizar la información lexicográfica hemos centrado nuestra atención en cuatro aspectos: a) la información contenida en las páginas preliminares de cada una de las obras; b) la ubicación de las colocaciones en el artículo lexicográfico; c) la asignación de la colocación a un artículo determinado; y d) la marcación gramatical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo describe una metodología de construcción de WordNets que se basa en la traducción automática de un corpus en inglés desambiguado por sentidos. El corpus que utilizamos está formado por las propias glosas de WN 3.0 etiquetadas semánticamente y por el corpus Semcor. Los resultados de precisión son comparables a los obtenidos mediante métodos basados en diccionarios bilingües para las mismas lenguas. La metodología descrita se está utilizando, en combinación con otras estrategias, en la creación de los WordNets 3.0 del español y catalán.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los objetivos principales del trabajo terminográfico es la identificación de conocimientosobre los términos que aparecenen textos especializados. Para confeccionar diccionarios, glosarios u ontologías, los terminógrafos suelen buscar definiciones sobre los términos que pretenden definir. La búsqueda de definiciones se puede hacer apartir de corpus especializados, donde normalmente aparecen en contextos definitorios, es decir, en fragmentos de texto donde un autor explícitamente define el término en cuestión. Hoy en día hay un interés creciente por automatizar este proceso, basado enla búsqueda de patrones definitorios sobre corpus especializados anotados morfosintácticamente. En este artículo presentamos una investigación centrada en la extracción automática de contextos definitorios. Presentamos una metodología que incluye tres procesos automáticos diferentes: la extracción de ocurrencias de patrones definitorios, el filtradode contextos no relevantes, y la identificación de elementos constitutivos, es decir, términos, definiciones y patrones pragmáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo sistematiza y analiza las principales obras de referencia de tres ámbitos interdisciplinarios: la traducción jurídica, el derecho comparado y la lexicografía bilingüe con el fin de establecer una base metodológica para la producción de un futuro diccionario bilingüe rumano-español para la traducción. Observamos una falta de repertorios lexicográficos rumano-español en el marco jurídico. El análisis que presentamos se enfoca en el tratamiento de la equivalencia de las unidades léxicas relacionadas con el derecho de asilo en cuatro diccionarios bilingües de carácter general. El resultado más significativo de nuestra investigación es que estos diccionarios no reúnen técnicas de traducción jurídica y métodos de derecho comparado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal del trabajo es observar y analizar las divergencias entre las definiciones de diversas palabras de ámbito científico realizadas por unos niños y las definiciones de los diccionarios, para así tratar de entender el proceso de adquisición del lenguaje de los niños y el proceso de especialización de palabras utilizadas diariamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta una aplicación basada en técnicas de estado-finito a los procesos de unificación de términos en español. Los algoritmos de unificación, o conflación, de términos son procedimientos computacionales utilizados en algunos sistemas de Recuperación de Información (RI) para la reducción de variantes de términos, semánticamente equivalentes, a una forma normalizada. Los programas que realizan habitualmente este proceso se denominan: stemmers y lematizadores. El objetivo de este trabajo es evaluar el grado de deficiencias y errores de los lematizadores en el proceso de agrupación de los términos a su correspondiente radical. El método utilizado para la construcción del lematizador se ha basado en la implementación de una herramienta lingüística que permite construir diccionarios electrónicos representados internamente en Transductores de Estado-Finito. Los recursos léxicos desarrollados se han aplicado a un corpus de verificación para evaluar el funcionamiento de este tipo de analizadores léxicos. La métrica de evaluación utilizada ha sido una adaptación de las medidas de cobertura y precisión. Los resultados muestran que la principal limitación del proceso de unificación de variantes de término por medio de tecnología de estado-finito es el infra-análisis.