1000 resultados para Classificação automática de texto
Resumo:
Este vídeo forma parte de la Enciclopedia Audiovisual de las Ciencias y las Técnicas, y se estructura en capítulos de cuatro minutos. Cada capítulo expone el estudio de un objeto o fenómeno científico y propone: recordatorios, definiciones, exploraciones para entender mejor un funcionamiento, animaciones para representar fenómenos complejos, descubrimientos y aplicaciones y puntos que remiten a otros capítulos de la enciclopedia directamente relacionados con el tema que se trata. Los capítulos incluidos en este volumen son: la mecanización; la soldadura; el encolado; el corte; la estampación y la embutición; la inyección de los materiales plásticos; la cadena de fabricación; la unidad de transferencia; el autómata programable; los sensores; el servosistema; el mando de control; el taller flexible; la gestión de producción; la gestión de calidad y, las herramientas de diseño y la fabricación asistidas por ordenador.
Resumo:
Resumen tomado de la revista. Número extraordinario titulado : Calidad en la enseñanza universitaria. Innovación didáctica en la Universidad de Sevilla
Resumo:
Resumen en inglés. Resumen tomado de la publicación
Resumo:
La sociedad moderna se enfrenta diariamente a una avalancha de información de crecimiento exponencial, debida a la generación constante de nuevas fuentes de información que la producen de forma muchas veces automática y, por tanto, a un ritmo capaz de desbordar a cualquier individuo. Este crecimiento de la información generada hace necesario un aumento de la capacidad de filtrado y asimilación para afrontar la avalancha, seleccionar y aprovechar de ella lo necesario. Los objetivos de este trabajo son estudiar las arquitecturas existentes con vistas a crear un agente inteligente capaz de integrarse en ellas de forma eficaz; facilitar la intercomunicabilidad de sistemas aunque utilicen distintos códigos de representación de los objetos docentes que intercambian; ofrecer una capa de abstracción superior con funcionalidades comunes disponibles para todos los sistemas que cubran las necesidades de comunicación; basar la propuesta en estándares reconocidos y sólidos; estudiar un modelo de nomenclatura para la especificación de las acciones a realizar por el agente en las diversas situaciones que se presenten y para nombrar e identificar las diferentes entidades participativas en todo el proceso, así como sus relaciones. Para conseguir estos objetivos se realiza un repaso al estado del arte en dos áreas principales, los sistemas de teleformación y los agentes inteligentes.. El método de trabajo tiene los siguientes pasos: desarrollo detallado y concreto del objetivo del que se obtendrán las necesidades a cubrir a partir de los elementos actuales para alcanzar dicho objetivo; análisis Particularizado y Profundo de los componentes tecnológicos implicados, adaptados al objetivo, y las necesidades a cubrir con estos componentes; LMS y arquitecturas que deben ser interconectadas. Este estudio será vital para establecer las necesidades y posibilidades. 99 estándares de intercomunicación de LMS, sobre los que se realizará la abstracción a un nivel. Agentes, encargados de la intercomunicación y soporte de la arquitectura que habilitará a los LMS para la interconexión. Enunciado y justificación de la propuesta. En su forma definitiva tras el desarrollo y aplicación de los componentes. Estudio de Viabilidad de la propuesta que llevará a decidir si es factible su implantación y, de no serlo, que habría de cambiar en los sistemas para que lo fuera..
Resumo:
Esta investigación propone un modelo computacional de lectura que elabora una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que permite la descripción de las relaciones entre los conceptos leídos y su nivel de significado en cada momento del proceso de lectura.. En este trabajo se presenta el sistema SILC, Sistema de Indexación Mediante Lectura Cognitiva. Éste intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. En primer lugar, construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, este modelo utiliza el conocimiento semántico lingüístico, previamente construido, y realiza inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos secuencialmente. La representación generada se emplea posteriormente para indexar documentos para clasificarlos automáticamente. Se realizan experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos.. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y confirman la hipótesis de partida de SILC que considera que se realizan mejor las tareas prácticas del lenguaje cuanto más se asemeje el sistema a los seres humanos. También se demuestra que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. En otros experimentos de aplicación práctica se observa que, una vez que se optimizan sus parámetros, el modelo de lectura implementado hace a SILC adecuado para su aplicación a tareas reales de procesamiento de lenguaje natural..
Resumo:
Notas al final
Resumo:
El Mecanismo Semántico aplicado a la documentación automática, es un esquema matemático que unifica diferentes aspectos del Reconocimiento de Formas, Lenguajes Formales y Diagnóstico Automático. Sin embargo se presenta sólo el Mecanismo proyectado en su aplicación al problema de la Clasificación e Interpretación Automática de Documentos. Se señalan las causas de esta delimitación. Por otro lado se tratan los siguientes puntos: en primer lugar se presenta un modelo para un posterior desarrollo, que introduce la noción de proyectividad de una manera natural en el concepto de diccionario, fundamental en la Lingüística matemática. En segundo lugar se analiza el teorema 2.10, de gran interés en cuestiones relacionadas con los algoritmos paralelos. En este mismo punto se define un modelo aplicable a diversos modelos analíticos lingüísticos. En tercer lugar se presenta un modelo que contiene, como caso particular, el algoritmo de Ferrari. Y por último se aplica el mecanismo a la clasificación de los documentos, previa interpretación de los conceptos.
Resumo:
Análisis de la problemática en torno a la producción automática de resúmenes de textos y artículos. Pese a los adelantos en tecnologías de la información, la producción de abstractos de alta calidad todavía tiene que hacerse manualmente. Esto representa un alto coste para numerosas empresas como editoriales. Como alternativas a la producción manual de abstractos tenemos el que los abstractos sean preparados por los propios autores como prerrequisitos a la publicación de sus artículos, o mecanizar su producción. Se describe una técnica nueva para producir automáticamente resúmenes. Primero se repasan las funciones de un resumen, que son: anunciamiento, filtrado, sustitución, y búsqueda retrospectiva. Posteriormente se realiza una tipología de resúmenes: indicativo, informativo, crítico y extractos. Además, los abstractos que producimos automáticamente se caracterizan por: una dimensión aproximada del 10 por 100 del original; se utiliza en el abstracto la misma terminología del original, es decir, producimos extractos con la misma fraseología escrita por el autor; se procura excluir en el extracto datos numéricos, expresiones cardinales o sentencias de un valor indefinido; y se evita incluir en el extracto observaciones preliminares, citaciones, notas al pie de página etc. Se analizan algunos de los métodos empleados para la producción de textos automáticamente, como el método de colocación, el método de sugestión, el método de titulación, las referencias intercruzadas de frases, los criterios de frecuencia y la existencia de un diccionario previo con términos.
Resumo:
Monográfico con el título: 'Avances tecnológicos digitales en metodologías de innovación docente en el campo de las Ciencias de la Salud en España'. Resumen basado en el de la publicación
Resumo:
Memoria de máster (Universidad de Barcelona, 2005). Incluye anexos. Resumen basado en el de la publicación
Resumo:
Contiene : 1-Grupo de automática industrial y telemática : memoria final, 2- Un disquete y 3- Apuntes básicos sobre DELPHI (este dossier de lenguaje de programación ha sido realizado individualmente por uno de los profesores). Premio a la Innovación Educativa, 1996-97. Anexo Memoria en C-Innov. 93
Resumo:
Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Resumo:
The precision and the fast identification of abnormalities of bottom hole are essential to prevent damage and increase production in the oil industry. This work presents a study about a new automatic approach to the detection and the classification of operation mode in the Sucker-rod Pumping through dynamometric cards of bottom hole. The main idea is the recognition of the well production status through the image processing of the bottom s hole dynamometric card (Boundary Descriptors) and statistics and similarity mathematics tools, like Fourier Descriptor, Principal Components Analysis (PCA) and Euclidean Distance. In order to validate the proposal, the Sucker-Rod Pumping system real data are used
Resumo:
Due to the large amount of television content, which emerged from the Digital TV, viewers are facing a new challenge, how to find interesting content intuitively and efficiently. The Personalized Electronic Programming Guides (pEPG) arise as an answer to this complex challenge. We propose TrendTV a layered architecture that allows the formation of social networks among viewers of Interactive Digital TV based on online microblogging. Associated with a pEPG, this social network allows the viewer to perform content filtering on a particular subject from the indications made by other viewers of his network. Allowing the viewer to create his own indications for a particular content when it is displayed, or to analyze the importance of a particular program online, based on these indications. This allows any user to perform filtering on content and generate or exchange information with other users in a flexible and transparent way, using several different devices (TVs, Smartphones, Tablets or PCs). Moreover, this architecture defines a mechanism to perform the automatic exchange of channels based on the best program that is showing at the moment, suggesting new components to be added to the middleware of the Brazilian Digital TV System (Ginga). The result is a constructed and dynamic database containing the classification of several TV programs as well as an application to automatically switch to the best channel of the moment