927 resultados para Procesamiento en lenguaje natural
Resumo:
Proyecto emergente centrado en el tratamiento de textos educativos en castellano con la finalidad de reducir las barreras lingüísticas que dificultan la comprensión lectora a personas con deficiencias auditivas, o incluso a personas aprendiendo una lengua distinta a su lengua materna. Se describe la metodología aplicada para resolver los distintos problemas relacionados con el objetivo a conseguir, la hipótesis de trabajo y las tareas y los objetivos parciales alcanzados.
Resumo:
In this paper we describe Fénix, a data model for exchanging information between Natural Language Processing applications. The format proposed is intended to be flexible enough to cover both current and future data structures employed in the field of Computational Linguistics. The Fénix architecture is divided into four separate layers: conceptual, logical, persistence and physical. This division provides a simple interface to abstract the users from low-level implementation details, such as programming languages and data storage employed, allowing them to focus in the concepts and processes to be modelled. The Fénix architecture is accompanied by a set of programming libraries to facilitate the access and manipulation of the structures created in this framework. We will also show how this architecture has been already successfully applied in different research projects.
Resumo:
El análisis de citas bibliográficas que usa variaciones de métodos de conteo provoca deformaciones en la evaluación del impacto. Para enriquecer el cálculo de los factores de impacto se necesita entender el tipo de influencia de los aportes de un investigador sobre el autor que los menciona. Para ello, se requiere realizar análisis de contenido del contexto de las citas que permita obtener su función, polaridad e influencia. El presente artículo trata sobre la definición de un esquema de anotación tendiente a la creación de un corpus de acceso público que sea la base de trabajo colaborativo en este campo, con miras al desarrollo de sistemas que permitan llevar adelante tareas de análisis de contenido con el objetivo planteado.
Resumo:
La presente herramienta informática constituye un software que es capaz concebir una red semántica con los siguientes recursos: WordNet versión 1.6 y 2.0, WordNet Affects versión 1.0 y 1.1, WordNet Domain versión 2.0, SUMO, Semantic Classes y Senti WordNet versión 3.0, todos integrados y relacionados en una única base de conocimiento. Utilizando estos recursos, ISR-WN cuenta con funcionalidades añadidas que permiten la exploración de dicha red de un modo simple aplicando funciones tanto como de recorrido como de búsquedas textuales. Mediante la interrogación de dicha red semántica es posible obtener información para enriquecer textos, como puede ser obtener las definiciones de aquellas palabras que son de uso común en determinados Dominios en general, dominios emocionales, y otras conceptualizaciones, además de conocer de un determinado sentido de una palabra su valoración proporcionada por el recurso SentiWordnet de positividad, negatividad y objetividad sentimental. Toda esta información puede ser utilizada en tareas de procesamiento del lenguaje natural como: • Desambiguación del Sentido de las Palabras, • Detección de la Polaridad Sentimental • Análisis Semántico y Léxico para la obtención de conceptos relevantes en una frase según el tipo de recurso implicado. Esta herramienta tiene como base el idioma inglés y se encuentra disponible como una aplicación de Windows la cual dispone de un archivo de instalación el cual despliega en el ordenador de residencia las librerías necesarias para su correcta utilización. Además de la interfaz de usuario ofrecida, esta herramienta puede ser utilizada como API (Application Programming Interface) por otras aplicaciones.
Resumo:
Los actuales sistemas de Reconocimiento de Entidades en el dominio farmacológico, necesarios como apoyo para el personal sanitario en el proceso de prescripción de un tratamiento farmacológico, sufren limitaciones relacionadas con la falta de cobertura de las bases de datos oficiales. Parece por tanto necesario analizar la fiabilidad de los recursos actuales existentes, tanto en la Web Semántica como en la Web 2.0, y determinar si es o no viable utilizar dichos recursos como fuentes de información complementarias que permitan generar y/o enriquecer lexicones empleados por sistemas de Reconocimiento de Entidades. Por ello, en este trabajo se analizan las principales fuentes de información relativas al dominio farmacológico disponibles en Internet. Este análisis permite concluir que existe información fiable y que dicha información permitiría enriquecer los lexicones existentes con sinónimos y otras variaciones léxicas o incluso con información histórica no recogida ni mantenida en las bases de datos oficiales.
Resumo:
La gran cantidad de información disponible en Internet está dificultando cada vez más que los usuarios puedan digerir toda esa información, siendo actualmente casi impensable sin la ayuda de herramientas basadas en las Tecnologías del Lenguaje Humano (TLH), como pueden ser los recuperadores de información o resumidores automáticos. El interés de este proyecto emergente (y por tanto, su objetivo principal) viene motivado precisamente por la necesidad de definir y crear un marco tecnológico basado en TLH, capaz de procesar y anotar semánticamente la información, así como permitir la generación de información de forma automática, flexibilizando el tipo de información a presentar y adaptándola a las necesidades de los usuarios. En este artículo se proporciona una visión general de este proyecto, centrándonos en la arquitectura propuesta y el estado actual del mismo.
Resumo:
Social Rankings es una aplicación web que realiza un seguimiento en tiempo real de entidades en las redes sociales. Detecta y analiza las opiniones sobre estas entidades utilizando técnicas de análisis de sentimientos para generar un informe visual de su valoración y su evolución en el tiempo.
Resumo:
En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.
Resumo:
Resumen: La pampa deprimida bonaerense (región denominada Cuenca del Salado) es considerada la zona de cría más importante del país y su principal recurso forrajero son los pastizales naturales. Allí se encuentra Lotus tenuis como especie herbácea naturalizada y muy valorada por su aporte a la oferta forrajera de los sistemas ganaderos de la región. En condiciones de campos naturales en bajos dulces (con horizonte superficial de pH cercano a la neutralidad) el agregado de fósforo mediante la fertilización incrementaría la presencia de leguminosas, mejorando la receptividad y calidad de los forrajes y por ende, la producción de carne. El objetivo del presente trabajo fue evaluar la respuesta del pastizal natural, medida como producción de materia seca, utilizando distintas dosis de fertilización fosforada (NPK 5-40-0). Se realizó un ensayo en un establecimiento ubicado en las cercanías de la ciudad de Olavarría, en el paraje rural Pourtalé, Provincia de Buenos Aires, utilizando un diseño de bloques al azar con tres repeticiones. Los tratamientos fueron 0, 50 y 120 kg.ha-1 realizándose cinco muestreos luego de la fertilización en el transcurso de un año, en los cuales se determinó la producción de materia seca como estimación de la disponibilidad forrajera. La producción acumulada promedio para el tratamiento con 0kg.ha-1 fue de 2793kgMS.ha-1, con 50kg.ha-1 fue de 5159 kgMS.ha-1 y con 120kg.ha-1 fue de 7206 kgMS.ha-1. Para analizar estadísticamente los resultados, se realizó un análisis de varianza mediante un software estadístico (Infostat), donde se pudo observar diferencias significativas entre el testigo y el tratamiento con 120kg ha-1 (p-valor<0,05).
Resumo:
El trabajo realizado en este proyecto se enmarca dentro del área de Procesamiento del Lenguaje Natural aplicado al ámbito de la medicina. Para este fin se han utilizado técnicas de minería de datos y aprendizaje automático. El objetivo principal de este proyecto es el desarrollo de un modelo capaz de automatizar la clasificación de textos clínicos según el estándar ICD-9- CM (codificación estándar utilizada por la red hospitalaria europea). Aunque existe una herramienta web (https://eciemaps.mspsi.es/ecieMaps/ browser/index_9_mc.html), que facilita la clasificación, este trabajo, hoy en día es realizado manualmente. Básicamente se trata de un diccionario online, de los términos del estándar. Basándonos en trabajos previos relacionados, se ha obtenido un baseline a partir del cual se ha construido el proyecto. En primer lugar, como en cualquier trabajo relacionado con los Sistemas de Apoyo a la Decisión (DSS) se ha estructurado el trabajo en dos módulos principales, el preproceso y la clasificación. En el módulo dedicado al preproceso, se tratan los datos para hacerlos comprensibles a los algoritmos de clasificación. En este primer módulo también se realiza una fase de adición de atributos que aporten información útil a la hora de la clasificación y una posterior selección de los mismos, por si alguno fuera redundante o irrelevante. En el segundo módulo dedicado a la clasificación, seleccionamos aquellos algoritmos que consideramos mejores, basándonos para ello, en otros trabajos previos que abordan un problema similar. Una vez seleccionados los algoritmos, se procede a realizar barridos de parámetros que optimicen su rendimiento. Finalmente, se ha realizado la experimentación con distintas técnicas de preprocesamiento de los datos y con los distintos algoritmos de clasificación automática. Esta última de experimentación tiene como objetivo, encontrar la combinación de métodos que optimice el rendimiento de ambos módulos, y por tanto de todo el sistema.
Resumo:
En esta comunicación presentamos el sistema tutorial inteligente, al que hemos llamado AGENTGEOM, y analizamos cómo interactúa con un alumno en la resolución de un problema que compara áreas de superficies planas. En esta interacción, el alumno llega a apropiarse de habilidades estratégicas y argumentativas en la resolución de problemas. Observaremos que estas apropiaciones son consecuencia de las formas de comunicación alumno-AGENTGEOM, en las que se combinan construcciones gráficas y sentencias escritas que siguen las normas del lenguaje matemático, y la emisión de mensajes escritos en lenguaje natural.
Resumo:
Presenta las investigaciones realizadas entorno a la ostra del Pacífico, a comienzos de 1995, con ejemplares provenientes de Chile que fueron cultivados en ambiente natural durante los períodos de noviembre de 1995 a junio de 1996 y de agosto a noviembre de 1996 en San Bartolo, Lima y en la isla San Lorenzo, Callao; con semillas obtenidas del laboratorio de IMARPE. El método de cultivo fue el de sistema suspendido en long line, concluyendo que el recurso muestra un rápido crecimiento en longitud que se observón, sobre todo, durante el evento El Niño de 1997 - 1998, con una tasa de 16mm/mes.
Resumo:
Resumen tomado del autor
Resumo:
1) Elaborar un programa instruccional emotivo dirigido a la prevención de los desajustes, que fuera sistemático y facilmente aplicable a la dinámica de la clase. 2) Comprobar la persistencia de las mejoras obtenidas con el programa. 3) La eficacia del feedback escrito y personalizado sobre la adaptación. 4) Los efectos del tipo de monitor, maestro o psicólogo, sobre su eficacia. 5) Si dicho programa es más eficaz cuando se transmite en lenguaje metafórico que cuando se hace en lenguaje literal. Muestra 1: 61 alumnos de sexto de EGB de un colegio. Muestra 2: 159 alumnos de sexto de EGB de diversos colegios. Diseño pretest posttest con grupo placebo. Se seleccionaron los grupos teniendo en cuenta una equiparabilidad en su nivel de adaptación y de inteligencia. Asignándose al azar a cada una de las condiciones experimentales. Grupo 1: lenguaje directo; grupo 2: lenguaje figurativo; grupo 3: placebo. Los grupos 1 y 2 recibieron el programa instruccional emotivo en lenguaje escrito, modificando el tipo de lenguaje utilizado, directo o figurativo. Se desarrollaron 10 sesiones: de autoconcepto, miedos y temores, etc. El programa placebo recibió 10 unidades relativas a temas de salud, cortesia, etc. Los dos grupos experimentales, directo y figurativo, recibía la mitad feedback y la otra mitad no lo recibía. 1) Los alumnos que recibieron el programa instruccional escrito, redujeron más sus inadaptaciones que el grupo placebo. 2) El lenguaje figurativo logra ganancias adaptativas más globales, pero las pierde con el tiempo. El lenguaje directo logra ganancias adaptativas más puntuales pero las mantiene. 3) El maestro logra mejorar, en mayor medida que el psicólogo, las inadaptaciones de los alumnos que conduce con el programa. 4) El feedback escrito y personalizado incide en mejorar,la tendencia a las somatizaciones, a la inhibición social y al ensimismamiento. 5) En general, los alumnos que recibieron el programa mantienen mejoras adaptativas un año despues del tratamiento. 1) Es evidente la viabilidad y eficacia de los procedimientos instruccionales emotivos sobre la adaptación personal, escolar, social y familiar y para lograr autovaloraciones de cambio positivas. 2) El que los resultados sean consistentes a través de dos tipos de lenguaje, habla a favor de la modificabilidad vivencial de los alumnos a través de procedimientos cognitivos conductuales. 3) La existencia de un grupo placebo, tratado de forma idéntica a los grupos de tratamiento, es otra de las garantias metodológicas de esta investigación. 4) La facilidad del programa para ser impartido en el aula, la escasa influencia del terapeuta y las posibilidades de realización en situación de clase, son aspectos de gran valor en una educación de la adaptación.
Resumo:
Este libro está recomendado para la iniciación a la programación de alumnos de los primeros cursos de ingenieros de telecomunicaciones, técnicos y superiores y de industriales. Los programas desarrollados con los conocimienros adquiridos en el libro pueden ejecutarse en cualquier computador sobre cualquier arquitectura, incluso teniendo un compilador para C++. El contenido de los diversos capítulos es el siguiente: 1. Describe la estructura de un programa en lenguaje C, la declaración y tipos de datos escalares, las instrucciones más sencillas y la construcción de expresiones, el capítulo termina con las sentencias para realizar la entrada/salida básica para la ejecución de los primeros programas. 2 y 3. Describen las sentencias clave para la realización de cualquier programa. 4. Describe cómo realizar un programa en partes, que en C se llamarán funciones. 5. Avanza en la declaración de datos: array y string. 6. Describe otros aspectos del lenguaje: preprocesadores, manejo de bits, entrada/salida con ficheros, biblioteca de C y algunas extensiones del mismo. Incluye tres apéndices con la tabla de precedencia de los operadores de C, ejemplos de declaraciones complejas que se pueden hacer en C, y una descripción del compilador de C en un entorno Unix: el cc.