949 resultados para Indexação automática
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
The indexing process aims to represent synthetically the informational content of documents by a set of terms whose meanings indicate the themes or subjects treated by them. With the emergence of the Web, research in automatic indexing received major boost with the necessity of retrieving documents from this huge collection. The traditional indexing languages, used to translate the thematic content of documents in standardized terms, always proved efficient in manual indexing. Ontologies open new perspectives for research in automatic indexing, offering a computer-process able language restricted to a particular domain. The use of ontologies in the automatic indexing process allows using a specific domain language and a logical and conceptual framework to make inferences, and whose relations allow an expansion of the terms extracted directly from the text of the document. This paper presents techniques for the construction and use of ontologies in the automatic indexing process. We conclude that the use of ontologies in the indexing process allows to add not only new feature to the indexing process, but also allows us to think in new and advanced features in an information retrieval system.
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
The terminological performance of the descriptors representing the Information Science domain in the SIBI/USP Controlled Vocabulary was evaluated in manual, automatic and semi-automatic indexing processes. It can be concluded that, in order to have a better performance (i.e., to adequately represent the content of the corpus), current Information Science descriptors of the SIBi/USP Controlled Vocabulary must be extended and put into context by means of terminological definitions so that information needs of users are fulfilled.
Resumo:
Na contemporaneidade, o bibliotecário tem inúmeras oportunidades de atuação profissional em diferentes áreas de informação, especialmente na Coordenação de Comunicação Social (CCSS), de universidades públicas brasileiras. Estes objetivos de gestão CCSS dos processos de comunicação e o fluxo de informações das instituições. Os recortes, considerados como fontes de notícias, proporcionam o acesso para a recuperação e uso das informações contidas em publicações como jornais diários, revistas científicas e da mídia, a fim de preservar e divulgar a memória histórica através de instituições de notícias. Uma vez que leva a indexação de conteúdo recortes para recuperação rápida e eficaz de informações do usuário, o objetivo deste estudo é uma análise comparativa entre a indexação manual e automática para identificar o tipo mais apropriado para a representação dos recortes em CCSS automatizado universidades brasileiras. A base de investigação é o CCS, da Universidade Federal de São Carlos (CCS-UFSCar), na realização da indexação, de 30 de recortes, cobrindo as áreas de Ciências Exatas, Biológica e Humanas. A indexação manual será realizada teorias de Lancaster (2003) e a automática de Gil Leiva (2008). Dado que essa investigação está em andamento, os resultados esperados referem-se à recomendação do tipo mais apropriado para indexação e recuperação de desempenho.
Resumo:
Na contemporaneidade, o bibliotecário tem inúmeras oportunidades de atuação profissional em diferentes áreas de informação, especialmente na Coordenação de Comunicação Social (CCSS), de universidades públicas brasileiras. Estes objetivos de gestão CCSS dos processos de comunicação e o fluxo de informações das instituições. Os recortes, considerados como fontes de notícias, proporcionam o acesso para a recuperação e uso das informações contidas em publicações como jornais diários, revistas científicas e da mídia, a fim de preservar e divulgar a memória histórica através de instituições de notícias. Uma vez que leva a indexação de conteúdo recortes para recuperação rápida e eficaz de informações do usuário, o objetivo deste estudo é uma análise comparativa entre a indexação manual e automática para identificar o tipo mais apropriado para a representação dos recortes em CCSS automatizado universidades brasileiras. A base de investigação é o CCS, da Universidade Federal de São Carlos (CCS-UFSCar), na realização da indexação, de 30 de recortes, cobrindo as áreas de Ciências Exatas, Biológica e Humanas. A indexação manual será realizada teorias de Lancaster (2003) e a automática de Gil Leiva (2008). Dado que essa investigação está em andamento, os resultados esperados referem-se à recomendação do tipo mais apropriado para indexação e recuperação de desempenho.
Resumo:
Na contemporaneidade, o bibliotecário tem inúmeras oportunidades de atuação profissional em diferentes áreas de informação, especialmente na Coordenação de Comunicação Social (CCSS), de universidades públicas brasileiras. Estes objetivos de gestão CCSS dos processos de comunicação e o fluxo de informações das instituições. Os recortes, considerados como fontes de notícias, proporcionam o acesso para a recuperação e uso das informações contidas em publicações como jornais diários, revistas científicas e da mídia, a fim de preservar e divulgar a memória histórica através de instituições de notícias. Uma vez que leva a indexação de conteúdo recortes para recuperação rápida e eficaz de informações do usuário, o objetivo deste estudo é uma análise comparativa entre a indexação manual e automática para identificar o tipo mais apropriado para a representação dos recortes em CCSS automatizado universidades brasileiras. A base de investigação é o CCS, da Universidade Federal de São Carlos (CCS-UFSCar), na realização da indexação, de 30 de recortes, cobrindo as áreas de Ciências Exatas, Biológica e Humanas. A indexação manual será realizada teorias de Lancaster (2003) e a automática de Gil Leiva (2008). Dado que essa investigação está em andamento, os resultados esperados referem-se à recomendação do tipo mais apropriado para indexação e recuperação de desempenho.
Resumo:
Monografia (especialização) -- Curso de Arquitetura e Organização da Informação, Câmara dos Deputados, Centro de Formação, Treinamento e Aperfeiçoamento (Cefor) e Universidade Federal de Minas Gerais, Escola de Ciência da Informação (ECI), 2013.
Resumo:
En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.
Resumo:
Apresenta conceitos referentes à indexação de um modo geral e define os procedimentos a serem adotados pelos indexadores da Seção de Indexação para as atividades de análise e representação documentária dos discursos a serem tratados, observando as determinações contidas na Política de Indexação da Câmara dos Deputados (Ato da Mesa nº 80/2013).
Resumo:
Analisa, sob a perspectiva multidimensional adotada nesta pesquisa, o ativismo judicial que ocupa uma postura de supremacia institucional do Poder Judiciário que, dentro de uma dada realidade sociopolítica e constitucional, expande seu poder político-decisório em face dos demais Poderes, manifestando-se em uma ou várias dimensões.
Resumo:
Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.
Resumo:
ES]El proyecto descrito en este documento consiste en la investigación sobre la viabilidad de detección automática de pulso y respiración a partir de la señal de aceleración, medida mediante un acelerómetro posicionado bien en la carótida o en el pecho del paciente. El motivo de la utilización de la aceleración está principalmente en el bajo costo y por la tecnología sencilla de los acelerómetros. En este documento se explica cómo se ha montado una plataforma para la adquisición de las señales de aceleración y el electrocardiograma emitido por el corazón, en sujetos sanos. Con la base de señales adquirida se ha diseñado un método basado en el dominio de la frecuencia para detectar la presencia de pulso y respiración. Los resultados son prometedores y confirman la posibilidad de desarrollar estos detectores. Las herramientas desarrolladas podrán ser utilizadas para análisis futuros y para seguir avanzando en este estudio.