1000 resultados para Recuperação de imagem baseada em conteúdo
Resumo:
Resumo Este trabalho descreve um sistema de recuperação de imagens baseada em conteúdo ("content-based image retrieval"), desenvolvido para auxiliar o diagnóstico de lesões de mama por inspeção visual, mediante comparação de imagens. Quando uma imagem desconhecida é apresentada, o sistema extrai um vetor de atributos de textura e busca, em um banco de dados, imagens com características semelhantes dentro de uma aproximação previamente estabelecida. As imagens recuperadas são apresentadas ao usuário, que pode, então, verificar os diagnósticos associados.
Resumo:
With the rapid growth of databases of various types (text, multimedia, etc..), There exist a need to propose methods for ordering, access and retrieve data in a simple and fast way. The images databases, in addition to these needs, require a representation of the images so that the semantic content characteristics are considered. Accordingly, several proposals such as the textual annotations based retrieval has been made. In the annotations approach, the recovery is based on the comparison between the textual description that a user can make of images and descriptions of the images stored in database. Among its drawbacks, it is noted that the textual description is very dependent on the observer, in addition to the computational effort required to describe all the images in database. Another approach is the content based image retrieval - CBIR, where each image is represented by low-level features such as: color, shape, texture, etc. In this sense, the results in the area of CBIR has been very promising. However, the representation of the images semantic by low-level features is an open problem. New algorithms for the extraction of features as well as new methods of indexing have been proposed in the literature. However, these algorithms become increasingly complex. So, doing an analysis, it is natural to ask whether there is a relationship between semantics and low-level features extracted in an image? and if there is a relationship, which descriptors better represent the semantic? which leads us to a new question: how to use descriptors to represent the content of the images?. The work presented in this thesis, proposes a method to analyze the relationship between low-level descriptors and semantics in an attempt to answer the questions before. Still, it was observed that there are three possibilities of indexing images: Using composed characteristic vectors, using parallel and independent index structures (for each descriptor or set of them) and using characteristic vectors sorted in sequential order. Thus, the first two forms have been widely studied and applied in literature, but there were no records of the third way has even been explored. So this thesis also proposes to index using a sequential structure of descriptors and also the order of these descriptors should be based on the relationship that exists between each descriptor and semantics of the users. Finally, the proposed index in this thesis revealed better than the traditional approachs and yet, was showed experimentally that the order in this sequence is important and there is a direct relationship between this order and the relationship of low-level descriptors with the semantics of the users
Resumo:
OBJETIVO: Utilizar o poder de processamento da tecnologia de grades computacionais para viabilizar a utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo. MATERIAIS E MÉTODOS: A técnica de recuperação de imagens baseada em conteúdo é composta de duas etapas seqüenciais: análise de textura e algoritmo de medida de similaridade. Estas são aplicadas em imagens de joelho e cabeça, nas quais se avaliaram a eficiência em recuperar imagens do mesmo plano e a seqüência de aquisição em um banco de 2.400 imagens médicas para testar a capacidade de recuperação de imagens baseada em conteúdo. A análise de textura foi utilizada inicialmente para pré-selecionar as 1.000 imagens mais semelhantes a uma imagem de referência escolhida por um clínico. Essas 1.000 imagens foram processadas utilizando-se o algoritmo de medida de similaridade na grade computacional. RESULTADOS: A precisão encontrada na classificação por análise de textura foi de 0,54 para imagens sagitais de joelho e de 0,40 para imagens axiais de cabeça. A análise de textura foi útil como filtragem, pré-selecionando imagens a serem avaliadas pelo algoritmo de medida de similaridade. A recuperação de imagens baseada em conteúdo utilizando o algoritmo de medida de similaridade aplicado nas imagens pré-selecionadas por análise de textura resultou em precisão de 0,95 para as imagens sagitais de joelho e de 0,92 para as imagens axiais de cabeça. O alto custo computacional do algoritmo de medida de similaridade foi amortizado pela grade computacional. CONCLUSÃO: A utilização da abordagem mista das técnicas de análise de textura e algoritmo de medida de similaridade no processo de recuperação de imagens baseada em conteúdo resultou em eficiência acima de 90%. A grade computacional é indispensável para utilização do algoritmo de medida de similaridade na recuperação de imagens baseada em conteúdo, que de outra forma seria limitado a supercomputadores.
Resumo:
The content-based image retrieval is important for various purposes like disease diagnoses from computerized tomography, for example. The relevance, social and economic of image retrieval systems has created the necessity of its improvement. Within this context, the content-based image retrieval systems are composed of two stages, the feature extraction and similarity measurement. The stage of similarity is still a challenge due to the wide variety of similarity measurement functions, which can be combined with the different techniques present in the recovery process and return results that aren’t always the most satisfactory. The most common functions used to measure the similarity are the Euclidean and Cosine, but some researchers have noted some limitations in these functions conventional proximity, in the step of search by similarity. For that reason, the Bregman divergences (Kullback Leibler and I-Generalized) have attracted the attention of researchers, due to its flexibility in the similarity analysis. Thus, the aim of this research was to conduct a comparative study over the use of Bregman divergences in relation the Euclidean and Cosine functions, in the step similarity of content-based image retrieval, checking the advantages and disadvantages of each function. For this, it was created a content-based image retrieval system in two stages: offline and online, using approaches BSM, FISM, BoVW and BoVW-SPM. With this system was created three groups of experiments using databases: Caltech101, Oxford and UK-bench. The performance of content-based image retrieval system using the different functions of similarity was tested through of evaluation measures: Mean Average Precision, normalized Discounted Cumulative Gain, precision at k, precision x recall. Finally, this study shows that the use of Bregman divergences (Kullback Leibler and Generalized) obtains better results than the Euclidean and Cosine measures with significant gains for content-based image retrieval.
Resumo:
OBJETIVO: Neste artigo são descritas a implementação e avaliação de um sistema de gerenciamento de imagens médicas com suporte à recuperação baseada em conteúdo (PACS-CBIR), integrando módulos voltados para a aquisição, armazenamento e distribuição de imagens, e a recuperação de informação textual por palavras-chave e de imagens por similaridade. MATERIAIS E MÉTODOS: O sistema foi implementado com tecnologias para Internet, utilizando-se programas livres, plataforma Linux e linguagem de programação C++, PHP e Java. Há um módulo de gerenciamento de imagens compatível com o padrão DICOM e outros dois módulos de busca, um baseado em informações textuais e outro na similaridade de atributos de textura de imagens. RESULTADOS: Os resultados obtidos indicaram que as imagens são gerenciadas e armazenadas corretamente e que o tempo de retorno das imagens, sempre menor do que 15 segundos, foi considerado bom pelos usuários. As avaliações da recuperação por similaridade demonstraram que o extrator escolhido possibilitou a separação das imagens por região anatômica. CONCLUSÃO: Com os resultados obtidos pode-se concluir que é viável a implementação de um PACS-CBIR. O sistema apresentou-se compatível com as funcionalidades do DICOM e integrável ao sistema de informação local. A funcionalidade de recuperação de imagens similares pode ser melhorada com a inclusão de outros descritores.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Dissertação de Mestrado, Processamento de Linguagem Natural e Indústrias da Língua, Faculdade de Ciências Humanas e Sociais, Universidade do Algarve, 2014
Resumo:
Existe actualmente um crescente desenvolvimento de sistemas de armazenamento e pesquisa de imagens. Uma aproximação adoptada nesses sistemas é a recuperação de imagens baseada em conteúdo (CBIR, Content-Based Image Retrieval). No âmbito destas aplicações existem utilizadores que pretendem utilizar imagens clip art para os seus trabalhos e apresentações. Existem muitas imagens clip art espalhadas por diversas bases de dados em sítios na Internet ou em colecções vendidas em dispositivos ópticos. A pesquisa de imagens nestas bases de dados leva os utilizadores a percorrem várias listas de imagens manualmente ou por métodos de pesquisa por texto, muitas vezes ineficientes. Essas bases de dados de clip arts são representadas por imagens vectoriais e imagens raster. Existem várias tecnologias de pesquisa e recuperação de ambos os tipos de imagens clip art, raster e vectoriais, contudo, a investigação tem sido realizada em separado sem retirar partido das duas áreas de investigação em conjunto, no problema de recuperar e explorar colecções de clip arts. O objectivo deste trabalho é implementar um motor de busca para encontrar clip arts em base de dados compostas por imagens vectoriais e imagens raster. O trabalho envolve um conversor de imagens raster em vectoriais, a extracção de características das imagens raster e vectoriais e a avaliação do sistema de recuperação de clip arts.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
Atualmente, os valores intangíveis são cada vez mais importantes no processo gerencial de empresas e governos, implicando a necessidade de informações mais precisas. Dentre os ativos intangíveis mais importantes encontram-se as marcas. É por meio das marcas que os consumidores escolhem e memorizam suas compras, e assim destinam seu dinheiro para algo que possa solucionar problemas em suas vidas. Marcas são formas de empresas e países conseguirem se diferenciar no mercado competitivo globalizado, e estas últimas são denominadas marca-país. A marca-país é fonte de conhecimento e associações no mercado, e torna o país mais ou menos atraente para os estrangeiros. Para se medir o valor de uma marca-país (country brand equity) utilizamse métodos específicos. Essa métrica perceptual é uma construção de valores baseados na marca-país, como conhecimento, associações, imagem, qualidade percebida e lealdade. Este trabalho visa compor um modelo de mensuração de country brand equity aplicável à realidade brasileira. Para tanto foram apresentados diversos modelos de avaliação de marcas e marca-país, por serem complementares, e testados empiricamente. Os dois principais modelos utilizados neste trabalho foram o modelo de valor de marca de Yoo, Donthu e Lee (2000), e o modelo de valor de marca-país de Pappu e Quester (2010). Como o construto de valor de marca-país é derivado de dimensões formativas que o compõem, foram somadas nessa equação as dimensões de imagem baseada na personalidade (AAKER, 1997) e percepção de cultura (NEWMAN; NOLLEN, 1996; HOFSTEDE; BOND, 1984). Todas as variáveis e composições de dimensões foram avaliadas quanto à sua confiabilidade, linearidade, normalidade, heterocedasticidade, multicolinearidade, correlações, formação de fatores e, por fim, avaliadas em regressões e modelos de equações estruturais. Foram criados dezesseis (16) modelos iniciais, nos quais se avaliou o poder de explicação dos construtos com a variável dependente proposta por Zeugner-Roth, Diamantopoulos e Montesinos (2008). Verificou-se pouca variabilidade entre os modelos. Em seguida, foram elaborados mais oito (8) modelos com a proxy de valor de marca-país pela reputação de marca-país, proposta por Kang e Yang (2010), na qual se pôde observar que os modelos com maior número de dimensões se mostraram melhores para explicar a variável dependente. Além disso, verificou-se a importância das dimensões de imagem e percepção de cultura nesses construtos. Por fim, esta tese apresenta modelos mais consistentes de avaliação de marca-país.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.
Resumo:
This dissertation presents a cooperative virtual multimedia enviroment for employing on time medical Field, using a TCP/IP computer network. The Virtual Diagnosis Room environment make it possible to perform cooperative tasks using classical image processing. Synchronous and assynchronous text conversation (chat) and content markup, in order to produce remote cooperative diagnosis. The dissertation also describes the tool in detail and its functions, that enables the interaction among users, along with implementation detals, contributions and weakness of this work
Localização automática de pontos de controle em imagens aéreas baseada em cenas terrestres verticais
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)