1000 resultados para procesamiento lenguaje natural


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta comunicación, expondremos, dentro de una perspectiva gramatical, ciertos objetivos de investigación acerca de la adquisición / aprendizaje de las categorías funcionales en adolescentes sordos y en un joven con diagnóstico de Trastorno Generalizado del Desarrollo (TGD). Comenzaremos por la cuestión de la concordancia entre sujeto y predicado, y la identificación de la referencia manifestada en los pronombres. Partiremos de la hipótesis de que la jerarquía de instigadores naturales (Moure 2001) incide en la identificación exitosa de los referentes; y de la idea de que existe una relación proporcional entre la menor información codificada léxicamente y la menor proximidad sintáctica con el verbo con el que concuerda, por un lado, y el número de los fallos en la interpretación, por otro. En efecto, se observa que la dificultad en el procesamiento de la información gramatical (más abstracta que la de las clases léxicas y, además, expresada, a través de rasgos de baja sustancia fónica -como los de flexión-) resulta un indicio contundente del déficit morfosintáctico, el que sumado a otros marcadores psicolingüísticos, colabora en la detección del fracaso en el desarrollo lingüístico (Buiza Navarrete et al 2004)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Al intentar describir cómo se construye el cuerpo y cómo pensar una educación del mismo, ciertas tensiones se ponen en despliegue: la unidad y la fragmentación, lo natural y lo simbólico, lo material y lo inmaterial, un interior que se despliega y un exterior que atraviesa; lo que nos lleva a ciertos interrogantes que nos permiten poner en debate el modo en que se constituye el cuerpo. El trabajo parte de un análisis sobre el concepto de corporeidad que se constituye en una manera de concebir al cuerpo para la Educación. Este punto en el modo de constitución del cuerpo permite poner en debate nociones de experiencia, percepción, lenguaje lo cual hace entran en tensión dos nudos teóricos que interpretan al cuerpo de manera inversa: 'un interior que se despliega y un exterior que atraviesa'

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo ofrece una revisión sobre diversos estudios relativos al Trastorno Específico del Lenguaje (TEL). Dicha tema, es abordado desde diversas disciplinas de las cuales las más relevantes son la psicolingüística, la neurofisiología y la psicología. Desde la psicolingüística, se plantean dos grandes teorías sobre la causa del TEL. La primera, como consecuencia de alteraciones en el procesamiento del lenguaje; la segunda, lo concibe como un trastorno modular del lenguaje. La teoría del procesamiento, propone que existe una limitación funcional de algunos dispositivos cognitivos que traería como consecuencia la limitación general del procesamiento del lenguaje. Esta teoría supone que hay un déficit en la memoria de trabajo, la cual refiere a la capacidad para almacenar información y poder recurrir a ella, siendo su principal característica la posibilidad de aprender nuevas palabras. Dentro de esta misma teoría, se sostiene que hay una limitación de la actividad fonológica que generan dificultades para formar representaciones correctas de las palabras, y dificultades luego para recurrir a ellas con el fin de manipularlas y combinarlas. Dichas dificultades se manifestarían primero en un retraso en la adquisición del vocabulario, y posteriormente iría afectando a las dimensiones fonológicas y morfo-sintáctica, siendo entonces el trastorno evidente a partir de los 3 años. Por otro lado, la teoría que concibe al lenguaje entendido como módulos específicos para la adquisición y representación del lenguaje, sostiene que dichos módulos estarían afectados, siendo necesario analizar las particularidades sintácticas y fonológicas de los niños que padecen este trastorno. Se ha estimado también, que este trastorno, es consecuencia de un déficit en el conocimiento que toda persona tiene de las reglas que regularizan su lengua. Otros estudios psicolingüísticos, sostienen que en el TEL habría un déficit acústico-perceptivo, que retrasa el desarrollo del lenguaje donde en una primera etapa, los niños afectados no pueden co-articular los datos acústicos y perceptivos. Si esto es así, el niño incorpora las palabras de una manera holística, pero no logra formar representaciones fonológicas y por tal motivo, no puede acceder al significado ni a las demás representaciones que permiten interpretar el habla. Como consecuencia de estas limitaciones, se producen deficiencias en la producción del habla. Desde la neurofisiología se plantean los lineamientos que establecen que habría bases genéticas subyacentes a las habilidades lingüísticas defectuosas de los sujetos con TEL. Esto puede verse claramente en el hecho de que los niños con TEL poseen una mayor cantidad de familiares con habilidades lingüísticas defectuosas en comparación a niños con un desarrollo normal. Desde la psicología, considerando en particular el enfoque socio histórico, se sostiene que habría un desfase entre el lenguaje verbal y escrito. Estos estudios plantean que las competencias lingüísticas esperables de los niños no siempre se manifiestan en el lenguaje escrito, el problema entonces reside en que a pesar de estar conectados el lenguaje verbal y escrito tienen vías de desarrollo diferentes. Finalmente, se intentó abordar la propia percepción que tienen los sujetos que padecen este trastorno a través de un test denominado IDENTLING (diseñado y aplicado exclusivamente a estos niños), como así también las consecuencias que este problema les genera a nivel socio-cultural, tales como la exclusión, discriminación, y los bajos desempeños en el ámbito escolar. Los resultados de este test, dan cuenta que los niños con trastornos del habla presentan conocimientos, creencias y (pre)juicios sobre sus propias experiencias para con los demás a la hora de la comunicación, que influyen en sus producciones y actuaciones lingüísticas, generando diversos tipos de actuaciones lingüísticas según el contexto social en el que se encuentren

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta comunicación, expondremos, dentro de una perspectiva gramatical, ciertos objetivos de investigación acerca de la adquisición / aprendizaje de las categorías funcionales en adolescentes sordos y en un joven con diagnóstico de Trastorno Generalizado del Desarrollo (TGD). Comenzaremos por la cuestión de la concordancia entre sujeto y predicado, y la identificación de la referencia manifestada en los pronombres. Partiremos de la hipótesis de que la jerarquía de instigadores naturales (Moure 2001) incide en la identificación exitosa de los referentes; y de la idea de que existe una relación proporcional entre la menor información codificada léxicamente y la menor proximidad sintáctica con el verbo con el que concuerda, por un lado, y el número de los fallos en la interpretación, por otro. En efecto, se observa que la dificultad en el procesamiento de la información gramatical (más abstracta que la de las clases léxicas y, además, expresada, a través de rasgos de baja sustancia fónica -como los de flexión-) resulta un indicio contundente del déficit morfosintáctico, el que sumado a otros marcadores psicolingüísticos, colabora en la detección del fracaso en el desarrollo lingüístico (Buiza Navarrete et al 2004)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Al intentar describir cómo se construye el cuerpo y cómo pensar una educación del mismo, ciertas tensiones se ponen en despliegue: la unidad y la fragmentación, lo natural y lo simbólico, lo material y lo inmaterial, un interior que se despliega y un exterior que atraviesa; lo que nos lleva a ciertos interrogantes que nos permiten poner en debate el modo en que se constituye el cuerpo. El trabajo parte de un análisis sobre el concepto de corporeidad que se constituye en una manera de concebir al cuerpo para la Educación. Este punto en el modo de constitución del cuerpo permite poner en debate nociones de experiencia, percepción, lenguaje lo cual hace entran en tensión dos nudos teóricos que interpretan al cuerpo de manera inversa: 'un interior que se despliega y un exterior que atraviesa'

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La arquitectura barroca eclesiástica de Madrid guarda un encanto típico no muy explorado. Muchas fueron las iglesias construidas, durante los siglos XVII y XVIII, en la capital madrileña como defensa ante la creciente amenaza del protestantismo. La Contrarreforma, un periodo de dudas caracterizado por la angustia y dualidad cuyos contrastes se reflejan en la arquitectura de la época. La luz, como elemento material, participa en la creación de los espacios arquitectónicos dotándoles de significado. En esta comunicación se analiza el papel de la luz en el interior de algunas iglesias representativas del estilo barroco madrileño, con el objetivo de identificar el lenguaje lumínico utilizado en ellas, y la simbología de la luz en su contexto. Se estudian las reformas hechas en estas iglesias que han afectado a las condiciones originales de su iluminación natural, y su repercusión en la alteración de las supuestas intenciones iniciales de los arquitectos proyectistas. También se analiza la iluminación artificial actual de los casos de estudio en este mismo sentido, y su adecuación a la primitiva iluminación de las iglesias. Dentro del ámbito de la conservación del patrimonio, la investigación plantea la posible recuperación de las condiciones originales de iluminación, y los requisitos técnicos para la instalación de una iluminación artificial que recupere o potencie dichas condiciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A raíz de la aparición de los procesadores dotados de varios “cores”, la programación paralela, un concepto que, por otra parte no era nada nuevo y se conocía desde hace décadas, sufrió un nuevo impulso, pues se creía que se podía superar el techo tecnológico que había estado limitando el rendimiento de esta programación durante años. Este impulso se ha ido manteniendo hasta la actualidad, movido por la necesidad de sistemas cada vez más potentes y gracias al abaratamiento de los costes de fabricación. Esta tendencia ha motivado la aparición de nuevo software y lenguajes con componentes orientados precisamente al campo de la programación paralela. Este es el caso del lenguaje Go, desarrollado por Google y lanzado en 2009. Este lenguaje se basa en modelos de concurrencia que lo hacen muy adecuados para abordar desarrollos de naturaleza paralela. Sin embargo, la programación paralela es un campo complejo y heterogéneo, y los programadores son reticentes a utilizar herramientas nuevas, en beneficio de aquellas que ya conocen y les son familiares. Un buen ejemplo son aquellas implementaciones de lenguajes conocidos, pero orientadas a programación paralela, y que siguen las directrices de un estándar ampliamente reconocido y aceptado. Este es el caso del estándar OpenMP, un Interfaz de Programación de Aplicaciones (API) flexible, portable y escalable, orientado a la programación paralela multiproceso en arquitecturas multi-core o multinucleo. Dicho estándar posee actualmente implementaciones en los lenguajes C, C++ y Fortran. Este proyecto nace como un intento de aunar ambos conceptos: un lenguaje emergente con interesantes posibilidades en el campo de la programación paralela, y un estándar reputado y ampliamente extendido, con el que los programadores se encuentran familiarizados. El objetivo principal es el desarrollo de un conjunto de librerías del sistema (que engloben directivas de compilación o pragmas, librerías de ejecución y variables de entorno), soportadas por las características y los modelos de concurrencia propios de Go; y que añadan funcionalidades propias del estándar OpenMP. La idea es añadir funcionalidades que permitan programar en lenguaje Go utilizando la sintaxis que OpenMP proporciona para otros lenguajes, como Fortan y C/C++ (concretamente, similar a esta última), y, de esta forma, dotar al usuario de Go de herramientas para programar estructuras de procesamiento paralelo de forma sencilla y transparente, de la misma manera que lo haría utilizando C/C++.---ABSTRACT---As a result of the appearance of processors equipped with multiple "cores ", parallel programming, a concept which, moreover, it was not new and it was known for decades, suffered a new impulse, because it was believed they could overcome the technological ceiling had been limiting the performance of this program for years. This impulse has been maintained until today, driven by the need for ever more powerful systems and thanks to the decrease in manufacturing costs. This trend has led to the emergence of new software and languages with components guided specifically to the field of parallel programming. This is the case of Go language, developed by Google and released in 2009. This language is based on concurrency models that make it well suited to tackle developments in parallel nature. However, parallel programming is a complex and heterogeneous field, and developers are reluctant to use new tools to benefit those who already know and are familiar. A good example are those implementations from well-known languages, but parallel programming oriented, and witch follow the guidelines of a standard widely recognized and accepted. This is the case of the OpenMP standard, an application programming interface (API), flexible, portable and scalable, parallel programming oriented, and designed for multi-core architectures. This standard currently has implementations in C, C ++ and Fortran. This project was born as an attempt to combine two concepts: an emerging language, with interesting possibilities in the field of parallel programming, and a reputed and widespread standard, with which programmers are familiar with. The main objective is to develop a set of system libraries (which includes compiler directives or pragmas, runtime libraries and environment variables), supported by the characteristics and concurrency patterns of Go; and that add custom features from the OpenMP standard. The idea is to add features that allow programming in Go language using the syntax OpenMP provides for other languages, like Fortran and C / C ++ (specifically, similar to the latter ), and, in this way, provide Go users with tools for programming parallel structures easily and, in the same way they would using C / C ++.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El paradigma de procesamiento de eventos CEP plantea la solución al reto del análisis de grandes cantidades de datos en tiempo real, como por ejemplo, monitorización de los valores de bolsa o el estado del tráfico de carreteras. En este paradigma los eventos recibidos deben procesarse sin almacenarse debido a que el volumen de datos es demasiado elevado y a las necesidades de baja latencia. Para ello se utilizan sistemas distribuidos con una alta escalabilidad, elevado throughput y baja latencia. Este tipo de sistemas son usualmente complejos y el tiempo de aprendizaje requerido para su uso es elevado. Sin embargo, muchos de estos sistemas carecen de un lenguaje declarativo de consultas en el que expresar la computación que se desea realizar sobre los eventos recibidos. En este trabajo se ha desarrollado un lenguaje declarativo de consultas similar a SQL y un compilador que realiza la traducción de este lenguaje al lenguaje nativo del sistema de procesamiento masivo de eventos. El lenguaje desarrollado en este trabajo es similar a SQL, con el que se encuentran familiarizados un gran número de desarrolladores y por tanto aprender este lenguaje no supondría un gran esfuerzo. Así el uso de este lenguaje logra reducir los errores en ejecución de la consulta desplegada sobre el sistema distribuido al tiempo que se abstrae al programador de los detalles de este sistema.---ABSTRACT---The complex event processing paradigm CEP has become the solution for high volume data analytics which demand scalability, high throughput, and low latency. Examples of applications which use this paradigm are financial processing or traffic monitoring. A distributed system is used to achieve the performance requisites. These same requisites force the distributed system not to store the events but to process them on the fly as they are received. These distributed systems are complex systems which require a considerably long time to learn and use. The majority of such distributed systems lack a declarative language in which to express the computation to perform over incoming events. In this work, a new SQL-like declarative language and a compiler have been developed. This compiler translates this new language to the distributed system native language. Due to its similarity with SQL a vast amount of developers who are already familiar with SQL will need little time to learn this language. Thus, this language reduces the execution failures at the time the programmer no longer needs to know every single detail of the underlying distributed system to submit a query.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis defiende un enfoque metalingüístico al desarrollo de aplicaciones de procesamiento XML, según el cual estas aplicaciones se conciben como clases particulares de procesadores de lenguaje, se describen utilizando formalismos de especificación de alto nivel orientados a la implementación de lenguajes informáticos, y se generan automáticamente a partir de dichas especificaciones. La tesis comienza realizando un análisis unificado de las propuestas más relevantes al desarrollo dirigido por lenguajes de aplicaciones de procesamiento XML realizadas en el Grupo de Investigación en Ingeniería de Lenguajes Software y Aplicaciones (ILSA) de la Universidad Complutense de Madrid (UCM), tanto aquellas basadas en esquemas de traducción, como aquellas basadas en gramáticas de atributos. Como resultado de este análisis, se identifican las dos principales limitaciones de estas propuestas: (i) no abordar la relación existente entre gramáticas específicas para el procesamiento y gramáticas documentales, y (ii) no abordar adecuadamente la especificación modular de tareas complejas. Una vez identificadas estas limitaciones, la tesis se centra en paliar las mismas...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper outlines the approach adopted by the PLSI research group at University of Alicante in the PASCAL-2006 second Recognising Textual Entailment challenge. Our system is composed of several components. On the one hand, the first component performs the derivation of the logic forms of the text/hypothesis pairs and, on the other hand, the second component provides us with a similarity score given by the semantic relations between the derived logic forms. In order to obtain this score we apply several measures of similitude and relatedness based on the structure and content of WordNet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present is marked by the availability of large volumes of heterogeneous data, whose management is extremely complex. While the treatment of factual data has been widely studied, the processing of subjective information still poses important challenges. This is especially true in tasks that combine Opinion Analysis with other challenges, such as the ones related to Question Answering. In this paper, we describe the different approaches we employed in the NTCIR 8 MOAT monolingual English (opinionatedness, relevance, answerness and polarity) and cross-lingual English-Chinese tasks, implemented in our OpAL system. The results obtained when using different settings of the system, as well as the error analysis performed after the competition, offered us some clear insights on the best combination of techniques, that balance between precision and recall. Contrary to our initial intuitions, we have also seen that the inclusion of specialized Natural Language Processing tools dealing with Temporality or Anaphora Resolution lowers the system performance, while the use of topic detection techniques using faceted search with Wikipedia and Latent Semantic Analysis leads to satisfactory system performance, both for the monolingual setting, as well as in a multilingual one.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper shows a system about the recognition of temporal expressions in Spanish and the resolution of their temporal reference. For the identification and recognition of temporal expressions we have based on a temporal expression grammar and for the resolution on an inference engine, where we have the information necessary to do the date operation based on the recognized expressions. For further information treatment, the output is proposed by means of XML tags in order to add standard information of the resolution obtained. Different kinds of annotation of temporal expressions are explained in another articles [WILSON2001][KATZ2001]. In the evaluation of our proposal we have obtained successful results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Internet boom in recent years has increased the interest in the field of plagiarism detection. A lot of documents are published on the Net everyday and anyone can access and plagiarize them. Of course, checking all cases of plagiarism manually is an unfeasible task. Therefore, it is necessary to create new systems that are able to automatically detect cases of plagiarism produced. In this paper, we introduce a new hybrid system for plagiarism detection which combines the advantages of the two main plagiarism detection techniques. This system consists of two analysis phases: the first phase uses an intrinsic detection technique which dismisses much of the text, and the second phase employs an external detection technique to identify the plagiarized text sections. With this combination we achieve a detection system which obtains accurate results and is also faster thanks to the prefiltering of the text.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Preliminary research demonstrated the EmotiBlog annotated corpus relevance as a Machine Learning resource to detect subjective data. In this paper we compare EmotiBlog with the JRC Quotes corpus in order to check the robustness of its annotation. We concentrate on its coarse-grained labels and carry out a deep Machine Learning experimentation also with the inclusion of lexical resources. The results obtained show a similarity with the ones obtained with the JRC Quotes corpus demonstrating the EmotiBlog validity as a resource for the SA task.