924 resultados para EUREKA (Information retrieval system)
Resumo:
This paper explores how audio chord estimation could improve if information about chord boundaries or beat onsets is revealed by an oracle. Chord estimation at the frame level is compared with three simulations, each using an oracle of increasing powers. The beat and chord segments revealed by an oracle are used to compute a chord ranking at the segment level, and to compute the cumulative probability of finding the correct chord among the top ranked chords. Oracle results on two different audio datasets demonstrate the substantial potential of segment versus frame approaches for chord audio estimation. This paper also provides a comparison of the oracle results on the Beatles dataset, the standard dataset in this area, with the new Billboard Hot 100 chord dataset.
Resumo:
This paper proposes a new method for local key and chord estimation from audio signals. This method relies primarily on principles from music theory, and does not require any training on a corpus of labelled audio files. A harmonic content of the musical piece is first extracted by computing a set of chroma vectors. A set of chord/key pairs is selected for every frame by correlation with fixed chord and key templates. An acyclic harmonic graph is constructed with these pairs as vertices, using a musical distance to weigh its edges. Finally, the sequences of chords and keys are obtained by finding the best path in the graph using dynamic programming. The proposed method allows a mutual chord and key estimation. It is evaluated on a corpus composed of Beatles songs for both the local key estimation and chord recognition tasks, as well as a larger corpus composed of songs taken from the Billboard dataset.
Resumo:
[EN]Measuring semantic similarity and relatedness between textual items (words, sentences, paragraphs or even documents) is a very important research area in Natural Language Processing (NLP). In fact, it has many practical applications in other NLP tasks. For instance, Word Sense Disambiguation, Textual Entailment, Paraphrase detection, Machine Translation, Summarization and other related tasks such as Information Retrieval or Question Answering. In this masther thesis we study di erent approaches to compute the semantic similarity between textual items. In the framework of the european PATHS project1, we also evaluate a knowledge-base method on a dataset of cultural item descriptions. Additionaly, we describe the work carried out for the Semantic Textual Similarity (STS) shared task of SemEval-2012. This work has involved supporting the creation of datasets for similarity tasks, as well as the organization of the task itself.
Resumo:
O problema que justifica o presente estudo refere-se à falta de semântica nos mecanismos de busca na Web. Para este problema, o consórcio W3 vem desenvolvendo tecnologias que visam construir uma Web Semântica. Entre estas tecnologias, estão as ontologias de domínio. Neste sentido, o objetivo geral desta dissertação é discutir as possibilidades de se imprimir semântica às buscas nos agregadores de notícia da Web. O objetivo específico é apresentar uma aplicação que usa uma classificação semi-automática de notícias, reunindo, para tanto, as tecnologias de busca da área de recuperação de informação com as ontologias de domínio. O sistema proposto é uma aplicação para a Web capaz de buscar notícias sobre um domínio específico em portais de informação. Ela utiliza a API do Google Maps V1 para a localização georreferenciada da notícia, sempre que esta informação estiver disponível. Para mostrar a viabilidade da proposta, foi desenvolvido um exemplo apoiado em uma ontologia para o domínio de chuvas e suas consequências. Os resultados obtidos por este novo Feed de base ontológica são alocados em um banco de dados e disponibilizados para consulta via Web. A expectativa é que o Feed proposto seja mais relevante em seus resultados do que um Feed comum. Os resultados obtidos com a união de tecnologias patrocinadas pelo consórcio W3 (XML, RSS e ontologia) e ferramentas de busca em página Web foram satisfatórios para o propósito pretendido. As ontologias mostram-se como ferramentas de usos múltiplos, e seu valor de análise em buscas na Web pode ser ampliado com aplicações computacionais adequadas para cada caso. Como no exemplo apresentado nesta dissertação, à palavra chuva agregaram-se outros conceitos, que estavam presentes nos desdobramentos ocasionados por ela. Isto realçou a ligação do evento chuva com as consequências que ela provoca - ação que só foi possível executar através de um recorte do conhecimento formal envolvido.
Resumo:
Background: Bronchiolitis caused by the respiratory syncytial virus (RSV) and its related complications are common in infants born prematurely, with severe congenital heart disease, or bronchopulmonary dysplasia, as well as in immunosuppressed infants. There is a rich literature on the different aspects of RSV infection with a focus, for the most part, on specific risk populations. However, there is a need for a systematic global analysis of the impact of RSV infection in terms of use of resources and health impact on both children and adults. With this aim, we performed a systematic search of scientific evidence on the social, economic, and health impact of RSV infection. Methods: A systematic search of the following databases was performed: MEDLINE, EMBASE, Spanish Medical Index, MEDES-MEDicina in Spanish, Cochrane Plus Library, and Google without time limits. We selected 421 abstracts based on the 6,598 articles identified. From these abstracts, 4 RSV experts selected the most relevant articles. They selected 65 articles. After reading the full articles, 23 of their references were also selected. Finally, one more article found through a literature information alert system was included. Results: The information collected was summarized and organized into the following topics: 1. Impact on health (infections and respiratory complications, mid-to long-term lung function decline, recurrent wheezing, asthma, other complications such as otitis and rhino-conjunctivitis, and mortality; 2. Impact on resources (visits to primary care and specialists offices, emergency room visits, hospital admissions, ICU admissions, diagnostic tests, and treatments); 3. Impact on costs (direct and indirect costs); 4. Impact on quality of life; and 5. Strategies to reduce the impact (interventions on social and hygienic factors and prophylactic treatments). Conclusions: We concluded that 1. The health impact of RSV infection is relevant and goes beyond the acute episode phase; 2. The health impact of RSV infection on children is much better documented than the impact on adults; 3. Further research is needed on mid-and long-term impact of RSV infection on the adult population, especially those at high-risk; 4. There is a need for interventions aimed at reducing the impact of RSV infection by targeting health education, information, and prophylaxis in high-risk populations.
Resumo:
Este trabalho tem por objetivo propor um modelo de ontologia simples e generalista, capaz de descrever os conceitos mais básicos que permeiam o domínio de conhecimento dos jornais on-line brasileiros não especializados, fundamentado tanto na prática quanto conceitualmente, em conformidade com os princípios da Web Semântica. A partir de uma nova forma de classificação e organização do conteúdo, a ontologia proposta deve ter condições de atender as necessidades comuns de ambas as partes, jornal e leitor, que são, resumidamente, a busca e a recuperação das informações.
Resumo:
Esta pesquisa discute a participação do bibliotecário na formação de equipes multidisciplinares dos grupos de Avaliação de Tecnologias em Saúde (ATS), caracterizando sua atuação num novo campo que se abre para os bibliotecários em instituições de pesquisa. O objetivo geral baseia-se na criação de uma Biblioteca Digital (BD) com os parâmetros de qualidade da informação inerentes a ATS, a partir dos documentos gerados pelo Serviço de Comutação Bibliográfica (SCB) da Rede de Bibliotecas da FIOCRUZ, recomendando a inserção do bibliotecário na equipe multidisciplinar para ATS. A metodologia foi dividida em três partes: levantamento do estado da arte do conhecimento produzido na Saúde Coletiva, onde se insere a Avaliação de Tecnologias em Saúde, e da Ciência da Informação, pesquisa exploratória com uma abordagem qualitativa para coleta de dados junto ao grupo de pesquisadores de ATS de diversas instituições públicas e privadas e uma abordagem quantitativa para coleta de dados dos profissionais do SCB da Rede de Bibliotecas da Fiocruz e análise dos dados. Verificou-se que existe uma participação ativa do bibliotecário nas atividades de ATS, no que diz respeito, à formulação de estratégias de busca em base de dados, revisão de protocolos de busca, localização de publicações relevantes, auxílio para realização de revisões sistemática para os grupos de pesquisa. Pressupõe a criação de uma BD permitindo o compartilhamento de todos os documentos digitais gerados pelas bibliotecas. Com essa iniciativa pretende-se contribuir para impulsionar a produção do conhecimento científico e tecnológico na área da saúde e de ATS.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.
Resumo:
O desenvolvimento dos meios de comunicação e seu fortalecimento dentro de nossa sociedade, infelizmente, vem nos revelando fatos que estão se tornando rotineiros, como por exemplo a negligência e o descaso cometidos por administradores públicos no desempenho de suas funções. A má utilização do erário público por gestores descompromissados impactam negativamente na imagem do Estado, obrigando-o à ações como a ampliação de sua arrecadação e o investimento em sistemas que promovam maior eficiência, economicidade e transparência na execução da despesa pública. Uma das soluções apresentadas pelo Governo para minimizar esta problemática é o Sistema de Informação de Custos do Governo Federal (SIC), uma ferramenta que tem por objetivo subsidiar decisões governamentais e organizacionais, conduzindo o Estado à alocação mais eficiente do gasto público. Dentro deste contexto, o objetivo desta pesquisa consiste em avaliar o uso do Sistema de Informação de Custos do Governo Federal na produção de informações gerenciais dentro da atual política de gestão de custos da Marinha do Brasil. Para tal, esta pesquisa classificada como aplicada, descritiva e qualitativa, depreendeu um estudo bibliográfico e documental, debruçando-se sobre a literatura existente, relatórios emitidos pelo sistema SIC e documentos da sistemática OMPS. Destarte o fato de que apenas as OMPS-I/C/H da Marinha do Brasil (MB), o que representa 26 Unidades Gestoras (UG) no universo de 151 do Órgão Comando da Marinha, possuem acompanhamento contínuo de suas gestões com base em custos, o resultado desta pesquisa se limita à estas Organizações, não se estendendo às demais Unidades da Força Naval. Os resultados obtidos mostram que o Sistema de Informação de Custos do Governo Federal deixou de evidenciar custos considerados relevantes no atual processo de avaliação econômico-financeira das OMPS-I/C/H, indicando que o mesmo não atende as necessidades da Diretoria de Finanças da Marinha na produção de informações gerenciais destinadas à Alta Administração Naval. Entretanto, o sistema SIC traz uma grande contribuição para a Marinha do Brasil ao expandir o emprego da gestão de custo como ferramenta de controle gerencial às demais 127 UG da MB, não inseridas na sistemática OMPS.
Resumo:
植物志是植物分类学研究中最重要的成果之一,它包含了大量的信息,如形态描述、命名及考证、地理分布等,其中形态学信息最为丰富,而且在分类学研究中始终占据着重要地位。植物分类学数据量的庞大和繁琐显然不适合手工处理,因此有必要利用计算机收集整理批量化数据的优势,以实现植物形态数据的自动处理。 本项研究结合作者的计算机实践和对分类学的认识,首次采用转换生成语法技术对植物志文本进行词法分析、语法分析以提炼植物志所包含的形态学信息,初步实现了植物志自然文本的中英文转换、中文检索表到数据库的自动转换、普通植物志描述文本到数据库的自动转换。 1.本系统处理过程对植物志文本不加任何限制,即无须前编辑处理,于是就增加了植物形态术语的切分难度,但由此提出了结合植物形态信息处理特点的词语切分方法。数值信息在植物志中占据着重要的地位,本系统则采用正规文法处理整数和无符号小数。 2.本系统将植物志文本的句式分为基本句和复合句,以基本句为基础总结归纳了一套适用于植物志文本的上下文无关文法,系统扩充了DELTA系统的描述结构,允许无性状主体句式的存在。而在语法制导翻译阶段利用继承属性补足无主句的性状主体。 3.本系统虽以绞股蓝属为基础来开展研究工作的,总结出文法并进行植物志文本的中英文转换,但经扩大术语库的词汇量后,也能适用于其他的科属。本系统附带有术语库的修订功能,可以自行编辑、修改和添加术语库中的词汇。 4.本系统设计了从检索表到数据库的自动转换程序,利用数据库的特点方便检索的查询。 5.系统实现了从一般植物志描述文本到数据库的自动生成,以利于对植物志住处的收集整理和查询。
Resumo:
Several research studies have been recently initiated to investigate the use of construction site images for automated infrastructure inspection, progress monitoring, etc. In these studies, it is always necessary to extract material regions (concrete or steel) from the images. Existing methods made use of material's special color/texture ranges for material information retrieval, but they do not sufficiently discuss how to find these appropriate color/texture ranges. As a result, users have to define appropriate ones by themselves, which is difficult for those who do not have enough image processing background. This paper presents a novel method of identifying concrete material regions using machine learning techniques. Under the method, each construction site image is first divided into regions through image segmentation. Then, the visual features of each region are calculated and classified with a pre-trained classifier. The output value determines whether the region is composed of concrete or not. The method was implemented using C++ and tested over hundreds of construction site images. The results were compared with the manual classification ones to indicate the method's validity.
Resumo:
This book explores the processes for retrieval, classification, and integration of construction images in AEC/FM model based systems. The author describes a combination of techniques from the areas of image and video processing, computer vision, information retrieval, statistics and content-based image and video retrieval that have been integrated into a novel method for the retrieval of related construction site image data from components of a project model. This method has been tested on available construction site images from a variety of sources like past and current building construction and transportation projects and is able to automatically classify, store, integrate and retrieve image data files in inter-organizational systems so as to allow their usage in project management related tasks. objects. Therefore, automated methods for the integration of construction images are important for construction information management. During this research, processes for retrieval, classification, and integration of construction images in AEC/FM model based systems have been explored. Specifically, a combination of techniques from the areas of image and video processing, computer vision, information retrieval, statistics and content-based image and video retrieval have been deployed in order to develop a methodology for the retrieval of related construction site image data from components of a project model. This method has been tested on available construction site images from a variety of sources like past and current building construction and transportation projects and is able to automatically classify, store, integrate and retrieve image data files in inter-organizational systems so as to allow their usage in project management related tasks.
Resumo:
The Architecture, Engineering, Construction and Facilities Management (AEC/FM) industry is rapidly becoming a multidisciplinary, multinational and multi-billion dollar economy, involving large numbers of actors working concurrently at different locations and using heterogeneous software and hardware technologies. Since the beginning of the last decade, a great deal of effort has been spent within the field of construction IT in order to integrate data and information from most computer tools used to carry out engineering projects. For this purpose, a number of integration models have been developed, like web-centric systems and construction project modeling, a useful approach in representing construction projects and integrating data from various civil engineering applications. In the modern, distributed and dynamic construction environment it is important to retrieve and exchange information from different sources and in different data formats in order to improve the processes supported by these systems. Previous research demonstrated that a major hurdle in AEC/FM data integration in such systems is caused by its variety of data types and that a significant part of the data is stored in semi-structured or unstructured formats. Therefore, new integrative approaches are needed to handle non-structured data types like images and text files. This research is focused on the integration of construction site images. These images are a significant part of the construction documentation with thousands stored in site photographs logs of large scale projects. However, locating and identifying such data needed for the important decision making processes is a very hard and time-consuming task, while so far, there are no automated methods for associating them with other related objects. Therefore, automated methods for the integration of construction images are important for construction information management. During this research, processes for retrieval, classification, and integration of construction images in AEC/FM model based systems have been explored. Specifically, a combination of techniques from the areas of image and video processing, computer vision, information retrieval, statistics and content-based image and video retrieval have been deployed in order to develop a methodology for the retrieval of related construction site image data from components of a project model. This method has been tested on available construction site images from a variety of sources like past and current building construction and transportation projects and is able to automatically classify, store, integrate and retrieve image data files in inter-organizational systems so as to allow their usage in project management related tasks.