1000 resultados para Generación automática de resúmenes


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En aquest projecte, amb la finalitat d'analitzar per mitjà d'un exemple (la base de dades d'una botiga que opera en línia) algunes de les possibilitats que dóna XML, s'ha construït un sistema que permet generar bases de dades relacionals (amb SQL) a partir de diagrames de classes definits en XML. D?aquesta manera es mostra la flexibilitat que aporta XML a la definició, el processament i la transformació dels documents.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La sociedad moderna se enfrenta diariamente a una avalancha de información de crecimiento exponencial, debida a la generación constante de nuevas fuentes de información que la producen de forma muchas veces automática y, por tanto, a un ritmo capaz de desbordar a cualquier individuo. Este crecimiento de la información generada hace necesario un aumento de la capacidad de filtrado y asimilación para afrontar la avalancha, seleccionar y aprovechar de ella lo necesario. Los objetivos de este trabajo son estudiar las arquitecturas existentes con vistas a crear un agente inteligente capaz de integrarse en ellas de forma eficaz; facilitar la intercomunicabilidad de sistemas aunque utilicen distintos códigos de representación de los objetos docentes que intercambian; ofrecer una capa de abstracción superior con funcionalidades comunes disponibles para todos los sistemas que cubran las necesidades de comunicación; basar la propuesta en estándares reconocidos y sólidos; estudiar un modelo de nomenclatura para la especificación de las acciones a realizar por el agente en las diversas situaciones que se presenten y para nombrar e identificar las diferentes entidades participativas en todo el proceso, así como sus relaciones. Para conseguir estos objetivos se realiza un repaso al estado del arte en dos áreas principales, los sistemas de teleformación y los agentes inteligentes.. El método de trabajo tiene los siguientes pasos: desarrollo detallado y concreto del objetivo del que se obtendrán las necesidades a cubrir a partir de los elementos actuales para alcanzar dicho objetivo; análisis Particularizado y Profundo de los componentes tecnológicos implicados, adaptados al objetivo, y las necesidades a cubrir con estos componentes; LMS y arquitecturas que deben ser interconectadas. Este estudio será vital para establecer las necesidades y posibilidades. 99 estándares de intercomunicación de LMS, sobre los que se realizará la abstracción a un nivel. Agentes, encargados de la intercomunicación y soporte de la arquitectura que habilitará a los LMS para la interconexión. Enunciado y justificación de la propuesta. En su forma definitiva tras el desarrollo y aplicación de los componentes. Estudio de Viabilidad de la propuesta que llevará a decidir si es factible su implantación y, de no serlo, que habría de cambiar en los sistemas para que lo fuera..

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación propone un modelo computacional de lectura que elabora una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que permite la descripción de las relaciones entre los conceptos leídos y su nivel de significado en cada momento del proceso de lectura.. En este trabajo se presenta el sistema SILC, Sistema de Indexación Mediante Lectura Cognitiva. Éste intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. En primer lugar, construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, este modelo utiliza el conocimiento semántico lingüístico, previamente construido, y realiza inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos secuencialmente. La representación generada se emplea posteriormente para indexar documentos para clasificarlos automáticamente. Se realizan experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos.. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y confirman la hipótesis de partida de SILC que considera que se realizan mejor las tareas prácticas del lenguaje cuanto más se asemeje el sistema a los seres humanos. También se demuestra que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. En otros experimentos de aplicación práctica se observa que, una vez que se optimizan sus parámetros, el modelo de lectura implementado hace a SILC adecuado para su aplicación a tareas reales de procesamiento de lenguaje natural..

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Doctorado en Ingeniería de Telecomunicación. Programa de Doctorado : Ingeniería Electrónica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El campo de procesamiento de lenguaje natural (PLN), ha tenido un gran crecimiento en los últimos años; sus áreas de investigación incluyen: recuperación y extracción de información, minería de datos, traducción automática, sistemas de búsquedas de respuestas, generación de resúmenes automáticos, análisis de sentimientos, entre otras. En este artículo se presentan conceptos y algunas herramientas con el fin de contribuir al entendimiento del procesamiento de texto con técnicas de PLN, con el propósito de extraer información relevante que pueda ser usada en un gran rango de aplicaciones. Se pueden desarrollar clasificadores automáticos que permitan categorizar documentos y recomendar etiquetas; estos clasificadores deben ser independientes de la plataforma, fácilmente personalizables para poder ser integrados en diferentes proyectos y que sean capaces de aprender a partir de ejemplos. En el presente artículo se introducen estos algoritmos de clasificación, se analizan algunas herramientas de código abierto disponibles actualmente para llevar a cabo estas tareas y se comparan diversas implementaciones utilizando la métrica F en la evaluación de los clasificadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gran cantidad de información disponible en Internet está dificultando cada vez más que los usuarios puedan digerir toda esa información, siendo actualmente casi impensable sin la ayuda de herramientas basadas en las Tecnologías del Lenguaje Humano (TLH), como pueden ser los recuperadores de información o resumidores automáticos. El interés de este proyecto emergente (y por tanto, su objetivo principal) viene motivado precisamente por la necesidad de definir y crear un marco tecnológico basado en TLH, capaz de procesar y anotar semánticamente la información, así como permitir la generación de información de forma automática, flexibilizando el tipo de información a presentar y adaptándola a las necesidades de los usuarios. En este artículo se proporciona una visión general de este proyecto, centrándonos en la arquitectura propuesta y el estado actual del mismo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao me ter sido apresentado o tema focado neste trabalho, a curiosidade apoderou-se de mim para tentar perceber o que eram os algoritmos genéticos, a aprendizagem automática e a aplicação dos algoritmos genéticos sobre este tipo de aprendizagem e onde é que estas técnicas podiam ser aplicadas. Assim, neste trabalho é realizado um estudo destes temas relativamente ao seu funcionamento, aplicabilidade, problemas e soluções existentes, bem como, a comparação entre duas das mais conhecidas abordagens ao nível da aprendizagem automática baseada em algoritmos genéticos. São no fim apresentados programas exemplificativos de implementações de aplicação de algoritmos genéticos a problemas de optimização/descoberta e de aprendizagem automática. Este texto está organizado em cinco capítulos, sendo o primeiro a introdução, o segundo é uma apresentação dos algoritmos genéticos, no terceiro capítulo é apresentada a técnica de aprendizagem automática baseada em algoritmos genéticos, as suas diferentes abordagens e implementações, aplicabilidade e comparação entre abordagens. No quarto capítulo são apresentados alguns exemplos práticos que pretendem demonstrar a forma como se implementam algumas das abordagens referidas nos capítulos anteriores com o intuito de ver o seu funcionamento na prática e comparar diferentes algoritmos no mesmo problema.