1000 resultados para procesamiento lenguaje natural
Resumo:
Como enfoque global, se ha considerado que en la realización del lenguaje cooperan simultáneamente distintos órganos del cuerpo con sus correspondientes funciones; por tanto, el lenguaje es objeto de análisis desde diversas áreas científicas. Lo que nos ha inducido a abordar en nuestro trabajo algunos detalles significativos de distintos ámbitos de estudio. El objetivo principal ha sido analizar por qué la lectura de las noticias, en los medios audiovisuales, difieren ostensiblemente del lenguaje natural. Esa diferencia es percibida no sólo por la extraña entonación y segmentación errada de unidades fonológicas o sintácticas o por la acentuación impropia de palabras átonas, sino también por las diferentes características en los parámetros de la fonación. Para ello era preciso conocer los más importantes mecanismos del lenguaje espontáneo y, a partir de ese conocimiento, examinar qué elementos sufren alteración o desaparecen en el acto de la lectura con respecto al habla natural. La lectura es un acto en el que no intervienen los mecanismos biológicos innatos del ser humano, habitualmente presentes en el habla. En el habla, el pensamiento genera la palabra. Sin embargo, en la lectura, la palabra está ya escrita y por tanto no hay un proceso simultaneo con el pensamiento. Además, el mensaje que recibe el lector a través del grafismo y de los formatos en que se inscriben, constituye un elemento diferenciador del proceso natural. Los indicadores que recibe el lector son: elemento plano del papel y elemento lineal sin curvas de la escritura; formas que se transmiten instintivamente en la fonación. Y aunque en la lectura intervienen los órganos de fonación, no así otros muchos componentes de la movilidad corporal del habla como los brazos, las manos y los músculos del rostro, que son los que dirigen el sentido de la entonación y del ritmo...
Resumo:
Existe una cantidad enorme de información en Internet acerca de incontables temas, y cada día esta información se expande más y más. En teoría, los programas informáticos podrían beneficiarse de esta gran cantidad de información disponible para establecer nuevas conexiones entre conceptos, pero esta información a menudo aparece en formatos no estructurados como texto en lenguaje natural. Por esta razón, es muy importante conseguir obtener automáticamente información de fuentes de diferentes tipos, procesarla, filtrarla y enriquecerla, para lograr maximizar el conocimiento que podemos obtener de Internet. Este proyecto consta de dos partes diferentes. En la primera se explora el filtrado de información. La entrada del sistema consiste en una serie de tripletas proporcionadas por la Universidad de Coimbra (ellos obtuvieron las tripletas mediante un proceso de extracción de información a partir de texto en lenguaje natural). Sin embargo, debido a la complejidad de la tarea de extracción, algunas de las tripletas son de dudosa calidad y necesitan pasar por un proceso de filtrado. Dadas estas tripletas acerca de un tema concreto, la entrada será estudiada para averiguar qué información es relevante al tema y qué información debe ser descartada. Para ello, la entrada será comparada con una fuente de conocimiento online. En la segunda parte de este proyecto, se explora el enriquecimiento de información. Se emplean diferentes fuentes de texto online escritas en lenguaje natural (en inglés) y se extrae información de ellas que pueda ser relevante al tema especificado. Algunas de estas fuentes de conocimiento están escritas en inglés común, y otras están escritas en inglés simple, un subconjunto controlado del lenguaje que consta de vocabulario reducido y estructuras sintácticas más simples. Se estudia cómo esto afecta a la calidad de las tripletas extraídas, y si la información obtenida de fuentes escritas en inglés simple es de una calidad superior a aquella extraída de fuentes en inglés común.
Resumo:
En la sociedad actual, tenemos en alta estima a aquellas personas que demuestran tener un alto grado de creatividad, ya que implica la correcta aplicación de habilidades cognitivas que comúnmente consideramos reflejo de inteligencia. Con este proyecto, intentamos arrojar algo de luz sobre la creatividad computacional, concentrándonos en el ámbito de la generación automática de historias. Veremos los diferentes paradigmas existentes para la generación automática de historias, así como los sistemas previamente implementados, que nos han servido de referencia para completar el nuestro propio. Expondremos los detalles de nuestro sistema, un primer prototipo de un generador de historias capaz de valorar sus propios resultados, de forma que pueda filtrarlos para presentar los que considera mejores, además de poder cambiar completamente el contexto y el contenido de la historia de forma sencilla. Para ello, nos hemos basado en la generación de historias basada en gramáticas formales, con filtrado basado en un modelo generado previamente mediante aprendizaje máquina. Dicho modelo es generado a partir de las valoraciones de usuarios reales a historias generadas por el sistema para, posteriormente, analizar qué elementos de esas historias son los que desencadenan dicha valoración. De esta forma, estamos estudiando qué elementos hacen que una historia sea interesante para una persona, lo cual es especialmente interesante debido a la falta de consenso en este ámbito. A la hora de narrar las historias, hemos utilizado un enfoque basado en plantillas predefinidas por simplicidad, ya que la generación de lenguaje natural queda fuera del ámbito de este proyecto. Con todo esto, hemos conseguido implementar un generador de historias básico capaz, no sólo de generar un número muy elevado de historias diferentes, si no de valorar cuáles de esas historias son interesantes.
Resumo:
Una de las tareas más comunes a las que se enfrentan los médicos es buscar historiales médicos, una tarea lenta y laboriosa que les arrebata tiempo útil. Este proyecto intenta reducir el tiempo dedicado a esa búsqueda permitiendo que, a partir del historial médico de un paciente, se encuentren otros casos similares dentro de la base de datos. Por eso, la base de datos con los documentos clínicos, en lenguaje natural en castellano, ha de ser procesada con las herramientas producidas por este proyecto. La aplicación está dividida en tres partes: la primera y la segunda se encargan de procesar los informes, dividiendo en campos y hallando los conceptos médicos respectivamente; la tercera parte es la que realiza las búsquedas de informes médicos similares.
Resumo:
El siguiente trabajo de fin de Master tiene como objetivo la realización de una traducción audiovisual al español de la serie americana de crimen Wicked City, en concreto de los dos primeros episodios de esta. El creciente desarrollo tecnológico sufrido en los últimos años así como el aumento en el número de producciones audiovisuales, ha colocado a la rama de la traducción audiovisual en una de las más demandadas hoy en día. Aun habiendo una gran cantidad de productos audiovisuales, sobre todo series y películas, que son importadas y exportadas y por lo tanto traducidas y adaptadas a la cultura receptora, siendo las más traducidas las estadounidenses, hay aun algunas que todavía no han sido objeto de este proceso. Y este es el caso de, por ejemplo, la serie elegida en este trabajo, Wicked City, que no ha sido oficialmente traducida al español. Por lo tanto, este trabajo propone una traducción para los dos primeros capítulos de esta serie, y dicha traducción es acompañada de un análisis de las prioridades y restricciones que se han seguido para llevarla a cabo, así como de una ejemplificación de las características específicas pertenecientes al género del crimen en esta serie concreta y de algunas de las técnicas de traducción usadas en el proyecto. La disertación se estructura en cinco partes aparte de la introductoria. La primera es un marco teórico sobre la traducción audiovisual y el género del crimen. En la segunda, se presenta la metodología usada para el proyecto. La tercera se centra en la traducción de la serie en sí. La cuarta es un análisis y discusión sobre la traducción. La quinta y última, está destinada a las conclusiones y sugerencias para investigación futura. En el marco teórico se define la traducción audiovisual como una traducción de cualquier producto audiovisual, ya sea de cine, televisión, teatro, radio, o de aplicaciones informáticas, siendo esta una disciplina relativamente nueva. Así mismo, también se da una vista general de todos los modos de traducción audiovisual, así como de las prioridades técnicas y lingüísticas de esta y la situación de la disciplina en el ámbito universitario español. También se comentan los aspectos más básicos del crimen ficticio así como las características de este género en las series televisivas. En la sección de metodología se explica que con el fin de llevar desarrollar el objetivo del trabajo, el primer paso a seguir fue, tras la visualización de la serie, el transcribir los diálogos de los dos episodios a un documento aparte, creando así lo que podríamos llamar el “script original”. Una vez hecho esto, se tradujeron ambos episodios al español. Seguidamente, se imprimó tal script para poder señalar todos los aspectos a discutir, es decir, las restricciones, las características del crimen de televisión y las técnicas de traducción. Finalmente, se llevó a cabo un análisis cualitativo de todos los aspectos mencionados previamente. Así bien, en la sección de análisis, se destaca que se llevó como prioridad el intentar conservar un lenguaje natural y no forzado. Para tal prioridad hay que tener en cuenta las restricciones que nos presenta la traducción: los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones. Además, esta serie presenta una serie de características pertenecientes al género del crimen que son las preguntas, la terminología específica, los marcadores pragmáticos y los “suavizadores” . Por último, para llevar a cabo la traducción se siguieron diversas técnicas, así como préstamo, traducción palabra por palabra, traducción literal, omisión, reducción, particularización, generalización, transposición, amplificación, variación, substitución y adaptación. Todos estos aspectos son ejemplificados con ejemplos extraídos de la traducción. Como conclusión, se resalta que una traducción audiovisual contiene mayormente dos tipos de restricciones: las técnicas y las lingüísticas. Las primeras van a estar especialmente ligadas a la modalidad de traducción audiovisual. Aunque en este trabajo la traducción no ha sido realizada con el fin de adaptarla a una modalidad específica, y por tanto las restricciones técnicas no suponen tantos problemas, es importante tener en cuenta la coherencia visual y auditiva, que de cierta manera van a condicionar la traducción. Así, a la hora de familiarizar, extranjerizar y naturalizar un término cultural, es importante mantener dichas coherencias. Por lo tanto, va a ser más fácil usar estas técnicas con un término que no aparece en pantalla. En cuanto a las restricciones lingüísticas, nos encontramos con los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones, aspectos que el traductor tiene que cuidar especialmente. Finalmente, ya que ha sido muy poca la investigación realizada en el género del crimen desde un punto de vista traductológico, algunas líneas de estudio futuras podrían ser: estudiar en mayor profundidad las características que son específicas al genero del crimen, especialmente en las series de televisión; comparar estas características con las características de otro tipo de textos como por ejemplo la novela; estudiar si estas características especificas a un género condicionan de alguna manera la traducción, y si es así, hasta qué punto; y por último, determinar cómo una traducción puede ser diferente dependiendo del género, es decir, por ejemplo, si es de tipo romántico, de crimen, o de comedia.
Resumo:
Suele decirse que una de las funciones de la lógica formal deductiva es analizar la validez de los argumentos expresados en lenguaje natural. Para ello, se requiere que el argumento en lenguaje natural sea simbolizado en un lenguaje formal correspondiente donde se llevará a cabo el análisis del argumento. Sin embargo, dicho procedimiento de simbolización resulta teóricamente problemático. El presente trabajo intentará exponer los tres enfoques principales presentes en la literatura para una teoría de la formalización en lógica: a) encontrar procedimientos efectivos de formalización; b) proporcionar criterios para una formalización adecuada; c) analizar el concepto de forma lógica
Resumo:
Contiene: Planificación de una red DVB-H en entorno urbano David Gómez Barquero, Ariana Salieto Alexis P. García, José F. Monserrat, Narcís Cardona Incorporación de la habilidad de coordinación y del módulo de personalización de sesiones al simulador de otorrinolaringología Wesst-OT Lina María Hurtado, Oscar Darío Ramírez Mauricio Castrillón S., Angélica María Ospina C. Francisco J. Herrera Botero Andrés A. Navarro Newball, Jorge A. Vélez Beltrán GenLeNa: Sistema para la construcción de Aplicaciones de Generación de Lenguaje Natural Gloria Johanna Chala T. Rafael Armando Jordán O. Diego Luis Linares Programación básica para adolescentes Guillermo Londoño Acosta Gustavo Adolfo Paz Loboguerrero Análisis de interferencia entre las tecnologías inalámbricas Bluetooth e IEEE 802.11g Fabio Guerrero Oliver Cardona Miguel Fuertes Teoría de Sistemas: Visión trascendental de Sistemas y Espiritualidad Ricardo Schnitzler
Resumo:
La ciencia de la computación arrancó con la era de las máquinas tabulables para después pasar a las programables. Sin embargo el mundo actual vive una transformación radical de la información. Por un lado la avalancha masiva de datos, el llamado Big Data hace que los sistemas requieran de una inteligencia adicional para extraer conocimiento válido de los datos. Por otro lado demandamos cada día más ordenadores que nos entiendan y se comuniquen mejor con nosotros. La computación cognitiva, la nueva era de la computación, viene a responder a estas necesidades: sistemas que utilizan la inteligencia biológica como modelo para establecer una relación más satisfactoria con los seres humanos. El lenguaje natural, la capacidad de moverse en un mundo ambiguo y el aprendizaje son características de los sistemas cognitivos, uno de los cuales, IBM Watson es el ejemplo más elocuente en la actualidad de este nuevo paradigma.
Resumo:
Suele decirse que una de las funciones de la lógica formal deductiva es analizar la validez de los argumentos expresados en lenguaje natural. Para ello, se requiere que el argumento en lenguaje natural sea simbolizado en un lenguaje formal correspondiente donde se llevará a cabo el análisis del argumento. Sin embargo, dicho procedimiento de simbolización resulta teóricamente problemático. El presente trabajo intentará exponer los tres enfoques principales presentes en la literatura para una teoría de la formalización en lógica: a) encontrar procedimientos efectivos de formalización; b) proporcionar criterios para una formalización adecuada; c) analizar el concepto de forma lógica
Resumo:
Suele decirse que una de las funciones de la lógica formal deductiva es analizar la validez de los argumentos expresados en lenguaje natural. Para ello, se requiere que el argumento en lenguaje natural sea simbolizado en un lenguaje formal correspondiente donde se llevará a cabo el análisis del argumento. Sin embargo, dicho procedimiento de simbolización resulta teóricamente problemático. El presente trabajo intentará exponer los tres enfoques principales presentes en la literatura para una teoría de la formalización en lógica: a) encontrar procedimientos efectivos de formalización; b) proporcionar criterios para una formalización adecuada; c) analizar el concepto de forma lógica
Resumo:
Tesis ( Maestro en Ciencias en Ingeniería de Sistemas) U.A.N.L.
Resumo:
Resumen en inglés
Resumo:
Resumen basado en el de la publicaci??n
Resumo:
El libro recoge ponencias y talleres seleccionados de JALIMI 2005 (Jornadas Argentinas de Lingüística Informática: Modelización e Ingeniería), y está organizado en nueve capítulos y un apéndice. Si bien hay sustantivas diferencias en los enfoques, las metodologías, las propiedades específicas estudiadas y las aplicaciones propuestas o proyectadas, todos los capítulos comunican resultados de investigaciones que pretenden contribuir a alcanzar el objetivo a largo plazo de la Lingüística Informática, a saber: emular en términos cibernéticos la extraordinaria capacidad humana de producir y comprender textos en lengua natural.
Resumo:
This introduction provides an overview of the state-of-the-art technology in Applications of Natural Language to Information Systems. Specifically, we analyze the need for such technologies to successfully address the new challenges of modern information systems, in which the exploitation of the Web as a main data source on business systems becomes a key requirement. It will also discuss the reasons why Human Language Technologies themselves have shifted their focus onto new areas of interest very directly linked to the development of technology for the treatment and understanding of Web 2.0. These new technologies are expected to be future interfaces for the new information systems to come. Moreover, we will review current topics of interest to this research community, and will present the selection of manuscripts that have been chosen by the program committee of the NLDB 2011 conference as representative cornerstone research works, especially highlighting their contribution to the advancement of such technologies.