1000 resultados para Processamento de imagem
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação apresentada para a obtenção do Grau de Doutor em Ciência dos Materiais Especialidade de Materiais Compósitos pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
Dissertação de Mestrado em Gestão do Território, Especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
A avaliação do processamento radiográfico utilizando o "STEP test" ("sensitometric test for the evaluation of processing") tem como objetivo a identificação de desvios importantes no sistema processadora-químicos-filmes. Neste tipo de avaliação são estabelecidas as condições ideais para o processamento. Um filme padrão é revelado de acordo com as condições do fabricante, ou seja, com padrão igual a 100. O filme é exposto à luz de um sensitômetro calibrado e os valores dos degraus são avaliados com o uso de um densitômetro, sendo obtida sua curva característica (densidade óptica × degrau). O desvio porcentual máximo deve ser de 20% quando comparado com a curva padrão. Este método é útil na identificação de problemas no processamento radiográfico. Várias processadoras de hospitais públicos/universitários foram avaliadas empregando este método, e verificou-se que aproximadamente 33% das instalações apresentam condições inadequadas de processamento.
Resumo:
OBJETIVO: Foi realizada avaliação da dose de entrada na pele, da dose efetiva e da qualidade da imagem em radiografias de tórax de pacientes adultos. MATERIAIS E MÉTODOS: O estudo realizou-se em oito hospitais, sendo sete públicos (dois filantrópicos) e um particular nos municípios de Angra dos Reis, Cabo Frio, Campos dos Goytacazes, Itaperuna, Niterói, Recife e Rio de Janeiro. Foram avaliadas a dose de entrada na pele e a dose efetiva de 735 radiografias de tórax nas incidências póstero-anterior/ântero-posterior e perfil. No que se refere aos critérios de imagem, foram avaliadas 44 radiografias. RESULTADOS: Constatou-se variação de até nove vezes nos valores da dose de entrada na pele e de até seis vezes na dose efetiva para um mesmo tipo de projeção. Os valores das técnicas radiográficas também apresentaram grandes discrepâncias. A qualidade das imagens também não é boa, pois foi obtido valor médio de presença dos critérios de apenas 55%. CONCLUSÃO: Há necessidade de melhoria/padronização de procedimentos em radiologia convencional, o que pode ser atingido se for implantado um programa de controle e garantia de qualidade no setor de radiologia, incluindo o treinamento dos técnicos, a aferição do desempenho dos equipamentos emissores de radiação e o controle sensitométrico do sistema de processamento radiográfico.
Resumo:
OBJETIVO: Desenvolver um programa computacional para avaliar e controlar as características das curvas sensitométricas. MATERIAIS E MÉTODOS: Para o desenvolvimento do programa, foi elaborado um método de obtenção dos valores das características sensitométricas, de filmes de baixo e alto contraste, sem a necessidade da fixação de degraus de referência. RESULTADOS: O programa, denominado Sensito, foi implementado e testado utilizando dados sensitométricos de curvas características dos departamentos de radiologia convencional, hemodinâmica e mamografia. Ficou comprovada a possibilidade da análise das curvas sensitométricas destas áreas sem a necessidade de ajustes, dependentes dos usuários, e sem incorrer em desvios nos parâmetros sensitométricos avaliados e na variação destes. CONCLUSÃO: O programa possibilita a criação de um banco de dados de curvas sensitométricas para diferentes processadoras de uma instituição, gerando com facilidade as curvas sensitométrica e gama, de um registro, e os gráficos de constância das características sensitométricas avaliadas, fornecendo importante ferramenta para manter o controle sensitométrico.
Resumo:
OBJETIVO: O objetivo deste estudo foi identificar a situação do gerenciamento de efluentes radiográficos em serviços de diagnóstico por imagem, em relação ao manuseio, acondicionamento, armazenamento, tratamento e descarte desses efluentes. MATERIAIS E MÉTODOS: Tratou-se de estudo descritivo e exploratório, realizado por meio de entrevistas baseadas em roteiro com perguntas semiestruturadas, realizadas no período de fevereiro a maio de 2009. A investigação foi realizada em 12 serviços de saúde humana e animal de radiodiagnóstico de Ribeirão Preto, SP, Brasil, escolhidos aleatoriamente por sorteio por meio do programa Statistical Package for the Social Sciences, versão 10.0. RESULTADOS: De acordo com os entrevistados, 16,66% dos serviços descartavam revelador usado na rede pública de esgoto, sem tratamento prévio, 8,33% descartavam o fixador e 75% descartavam a água de lavagem de filmes diretamente no esgoto, sem tratamento prévio. CONCLUSÃO: Os resultados deste estudo evidenciam necessidade de maior fiscalização, controle e monitoramento, pela vigilância ambiental e sanitária, para com os efluentes radiográficos, estimulando tratamento antes do descarte, minimizando o impacto à saúde pública e ao ambiente.
Resumo:
Neste trabalho, foi aplicado o processamento de imagens digitais auxiliado pelas Redes Neurais Artificiais (RNA) com a finalidade de identificar algumas variedades de soja por meio da forma e do tamanho das sementes. Foram analisadas as seguintes variedades: EMBRAPA 133, EMBRAPA 184, COODETEC 205, COODETEC 206, EMBRAPA 48, SYNGENTA 8350, FEPAGRO 10 e MONSOY 8000 RR, safra 2005/2006. O processamento das imagens foi constituído pelas seguintes etapas: 1) Aquisição da imagem: as amostras de cada variedade foram fotografadas por máquina fotográfica Coolpix995, Nikon, com resolução de 3.34 megapixels; 2) Pré-processamento: um filtro de anti-aliasing foi aplicado para obter tons acinzentados da imagem; 3) Segmentação: foi realizada a detecção das bordas das sementes (Método de Prewitt), dilatação dessas bordas e remoção de segmentos não-necessários para a análise. 4) Representação: cada semente foi representada na forma de matriz binária 130x130, e 5) Reconhecimento e interpretação: foi utilizada uma rede neural feedforward multicamadas, com três camadas ocultas. O treinamento da rede foi realizado pelo método backpropagation. A validação da RNA treinada mostrou que o processamento aplicado pode ser usado para a identificação das variedades consideradas.
Resumo:
A partir de uma amostra de 30 radiografias mesiorradiais prémolares superiores, contendo um instrumento endodôntico em cada um de seus condutos, obtidas com a finalidade de odontometria, foi avaliado se a manipulação digital pela aplicação de filtros grráficos de inversão, pseudocolorização e relevo, favorece ou não a localização do ápice radiográfico.As imagens convencionais foram digitalizadas através de scanner em 300 dpi e 256 tons de cinca, tamanho original e ajuste automático de brilho e contraste, reproduzidas três vezes e submetidas aos filtros gráficos. Uma seqüência aleatória de todas as imagens foi apresentada em monitor, em condições padronizadas de visualização, a um observador habituado à utilização de imagens digitais que, através de régua eletrônica da barra de ferramentas do programa PhotoshopR, efetuou a medida da distância entre a borda superior da imagem e o limite apical para ambas as raízes, três vezes em oportunidades distintas. As quatro imagens de cada dente foram montadas em apresentação do programa PowerPointR e exibidas, com os mesmos critérios de padronização, para três observadores especialistas em endodontia, os quais qualitativamente em qual delas o limite apical de cada raiz era melhor visualizado. Através dos resultados do teste não-paramétrico de Friedman verificou-se que os valores médios para as imagens manipuladas não diferem significativamente daqueles obtidos sobre a imagem (p=0,001), onde se observa o maior coeficiente de variação. A imagem e sua versão em negativo foram classificadas como as melhores de forma mais consistente. A modalidade pseudocores e relevo receberam os piores escores, porém não de modo consistente.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.