999 resultados para reconhecimento de padrões
Resumo:
Dissertação de mestrado integrado em Engenharia Civil
Resumo:
Resumo Este trabalho descreve um sistema de recuperação de imagens baseada em conteúdo ("content-based image retrieval"), desenvolvido para auxiliar o diagnóstico de lesões de mama por inspeção visual, mediante comparação de imagens. Quando uma imagem desconhecida é apresentada, o sistema extrai um vetor de atributos de textura e busca, em um banco de dados, imagens com características semelhantes dentro de uma aproximação previamente estabelecida. As imagens recuperadas são apresentadas ao usuário, que pode, então, verificar os diagnósticos associados.
Resumo:
OBJETIVO: Caracterizar lesões intersticiais em radiografias frontais de tórax, com base na análise de atributos estatísticos de textura, os quais permitem detectar sinais de anormalidades com natureza difusa. MATERIAIS E MÉTODOS: O esquema começa com a segmentação semi-automática dos campos pulmonares, sendo o contorno externo marcado manualmente, com posterior divisão automática de cada pulmão em seis regiões. O banco de imagens utilizado neste trabalho é composto por 482 regiões obtidas de exames contendo lesões e 324 regiões obtidas de exames normais. Os atributos de textura são extraídos automaticamente de cada uma dessas regiões e uma seleção das melhores combinações de atributos é feita através da distância Jeffries-Matusita. A classificação das regiões em normal ou suspeita é feita pela comparação com os k vizinhos mais próximos e o treinamento do classificador é baseado na técnica de treino e teste "half-half" e correlação cruzada. RESULTADOS: Os resultados obtidos foram analisados através do valor da área sob a curva ROC ("receiver operating characteristic"), a qual indica um sistema perfeito para uma área igual a 1. Os resultados forneceram uma área sob a curva ROC (A Z) igual a 0,887, com valores de sensibilidade igual a 0,804 e especificidade igual a 0,793. CONCLUSÃO: Os resultados indicam que o sistema de caracterização baseado em atributos de textura possui bom potencial para o auxílio ao diagnóstico de lesões intersticiais de pulmão.
Resumo:
OBJETIVO: Foi desenvolvido um software denominado QualIM® - Qualificação de Imagens Médicas para treinamento de profissionais na interpretação de exames digitais de mamografias utilizando ferramentas de manipulação de imagens, em monitores específicos, classificadas em BI-RADS®. MATERIAIS E MÉTODOS: O sistema, desenvolvido em Delphi 7, armazena as respostas da interpretação de imagens mamográficas durante o treinamento e compara aos dados inseridos denominados "padrão-ouro". O sistema contém imagens de computed radiography, direct radiography e digitalizadas. O software converte as imagens do computed radiography e direct radiography para o formato TIFF, mantendo as resoluções espacial e de contraste originais. Profissionais em treinamento manipulam o realce da imagem utilizando ferramentas de software (zoom, inversão, réguas digitais, outras). Dependendo da complexidade, são apresentadas até oito incidências mamográficas, seis imagens de ultra-som e duas de anatomopatológico. RESULTADOS: O treinamento iniciou em 2007 e atualmente faz parte do programa de residência em radiologia. O software compõe o texto, de forma automática, das informações inseridas pelo profissional, baseado nas categorias BI-RADS, e compara com a base de dados. CONCLUSÃO: O software QualIM é uma ferramenta digital de ensino que auxilia profissionais no reconhecimento de padrões visuais de uma imagem mamográfica, bem como na interpretação de exames mamográficos, utilizando a classificação BI-RADS.
Resumo:
A identificação e o monitoramento de microorganismos aquáticos, como bactérias e microalgas, tem sido uma tarefa árdua e morosa. Técnicas convencionais, com uso de microscópios e corantes, são complexas, exigindo um grande esforço por parte dos técnicos e pesquisadores. Uma das maiores dificuldades nos processos convencionais de identificação via microscopia é o elevado número de diferentes espécies e variantes existentes nos ambientes aquáticos, muitas com semelhança de forma e textura. O presente trabalho tem por objetivo o desenvolvimento de uma metodologia para a caracterização e classificação de microorganismos aquáticos (bactérias e microalgas), bem como a determinação de características cinemáticas, através do estudo da mobilidade de microalgas que possuem estruturas que permitem a natação (flagelos). Para caracterização e reconhecimento de padrões as metodologias empregadas foram: o processamento digital de imagens e redes neurais artificiais (RNA). Para a determinação da mobilidade dos microorganismos foram empregadas técnicas de velocimetria por processamento de imagens de partículas em movimento (Particle Tracking Velocimetry - PTV). O trabalho está dividido em duas partes: 1) caracterização e contagem de microalgas e bactérias aquáticas em amostras e 2) medição da velocidade de movimentação das microalgas em lâminas de microscópio. A primeira parte envolve a aquisição e processamento digital de imagens de microalgas, a partir de um microscópio ótico, sua caracterização e determinação da densidade de cada espécie contida em amostras. Por meio de um microscópio epifluorescente, foi possível, ainda, acompanhar o crescimento de bactérias aquáticas e efetuar a sua medição por operadores morfológicos. A segunda parte constitui-se na medição da velocidade de movimentação de microalgas, cujo parâmetro pode ser utilizado como um indicador para se avaliar o efeito de substâncias tóxicas ou fatores de estresse sobre as microalgas. O trabalho em desenvolvimento contribuirá para o projeto "Produção do Camarão Marinho Penaeus Paulensis no Sul do Brasil: Cultivo em estruturas Alternativas" em andamento na Estação Marinha de Aquacultura - EMA e para pesquisas no Laboratório de Ecologia do Fitoplâncton e de Microorganismos Marinhos do Departamento de Oceanografia da FURG. O trabalho propõe a utilização dos níveis de intensidade da imagem em padrão RGB e oito grandezas geométricas como características para reconhecimento de padrões das microalgas O conjunto proposto de características das microalgas, do ponto de vista de grandezas geométricas e da cor (nível de intensidade da imagem e transformadas Fourier e Radon), levou à geração de indicadores que permitiram o reconhecimento de padrões. As redes neurais artificiais desenvolvidas com topologia de rede multinível totalmente conectada, supervisionada, e com algoritmo de retropropagação, atingiram as metas de erro máximo estipuladas entre os neurônios de saída desejados e os obtidos, permitindo a caracterização das microalgas.
Resumo:
Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Este trabalho observa e descreve o processo de composição de termos em textos de Medicina em língua alemã e sua tradução para o português. Ao buscar o reconhecimento de padrões de construção da terminologia e da sua tradução, a pesquisa faz uma revisão da literatura que inclui o tratamento gramatical e lexicográfico dos compostos em alemão, de trabalhos que tratam da tradução de Komposita, além de revisar fundamentos teóricos de Terminologia e de Tradução e sua relação com a composição de termos. A perspectiva adotada pela pesquisa vincula Lingüística de Corpus e enfoques de perspectiva textual de Terminologia, além de relacionar padrões de tradução de compostos a uma maior ou menor inserção cultural do texto traduzido. O trabalho apresenta um levantamento quantitativo e qualitativo de ocorrências de compostos e de suas traduções em um corpus formado por textos didáticos de Medicina nas subáreas Fisiologia e Genética. O corpus alinhado alemão-português é composto por 99 parágrafos de texto. A diversidade de escolhas de tradução verificada e a concentração de escolhas no padrão substantivo+preposição+substantivo apontam uma baixa inserção cultural da tradução produzida para o português
Resumo:
Cada vez mais as empresas vêm enfrentando níveis de concorrência mais altos, menores margens nas vendas e perda de diferenciação de seus produtos e serviços. Por outro lado, o desenvolvimento tecnológico e particularmente a Internet vêm permitindo às empresas ter um contato próximo com seus clientes. Este mesmo desenvolvimento também permite que todos os dados, operações e transações empresas sejam armazenadas, fazendo com que maioria delas possuam grandes bancos de dados. Este trabalho tem por objetivo: • Entender quais as tendências do Marketing e como o surgimento de novos canais como a Internet podem alavancar a posição competitiva das empresas; • Constatar a grande quantidade de dados que as empresas possuem, e qual o potencial de informações contida nos mesmos; • Mostrar como Datamining pode auxiliar na descoberta de informações contidas em meio ao emaranhado de dados, • Desenvolvimento de metodologia em um estudo de caso prático, onde se buscará determinar que clientes têm maiores probabilidades de compra, e quais seus padrões de consumoatravés de um estudo de caso, e como a empresa pode usufruir destas informações; • Mostrar como as empresas podem usufruir das informações descobertas e quais são os valores econômico e estratégico.
Resumo:
Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados
Resumo:
A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
A busca de soluções racionais para problemas geotécnicos envolvendo solos cimentados, tanto naturais como artificiais, e sua incorporação à prática corrente da Engenharia Geotécnica, requer primordialmente o estabelecimento de critérios de análise, projeto e execução tecnicamente confiáveis e economicamente viáveis, o que, por sua vez, implica na capacidade de prever o comportamento mecânico desses materiais cimentados quando submetidos a condições específicas de trabalho. Neste contexto, o presente trabalho apresenta uma contribuição ao desenvolvimento de um arcabouço teórico fundamental à compreensão do comportamento geotécnico de solos cimentados, através de uma abordagem que contemplou, além da caracterização do comportamento básico de solos cimentados, a investigação teórica e experimental da relação tensão-dilatância-resistência observada na compressão triaxial para uma variada gama de materiais reconstituídos e cimentados. Todos os aspectos analisados do comportamento mecânico dos solos cimentados investigados foram, em maior ou menor grau, influenciados pela variação do grau de cimentação, da tensão efetiva média inicial e do índice de vazios. A análise da resposta dos materiais cimentados no espaço tensão-dilatância permitiu concluir, a partir do reconhecimento de padrões claros de comportamento, que a teoria da tensão-dilatância fornece um arcabouço com potencial para a interpretação do comportamento tensão-deformação e da resistência de materiais cimentados, na medida em que incorpora a dilatância como fator importante do comportamento geotécnico.