1000 resultados para Processamento de imagem assistido por computador
Resumo:
Dissertação apresentada para a obtenção do Grau de Doutor em Ciência dos Materiais Especialidade de Materiais Compósitos pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e de Computadores
Resumo:
Dissertação de Mestrado em Gestão do Território, Especialização em Detecção Remota e Sistemas de Informação Geográfica
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Resumo:
A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.
Resumo:
Este trabalho de investigação começou por ser estruturado em torno de quatro grandes capítulos (quatro grandes linhas de orientação temática), todos eles amplamente desenvolvidos no sentido de podermos cartografar alguns dos principais territórios e sintomas da arte contemporânea, sendo certo também, que cada um deles assenta precisamente nos princípios de uma estrutura maleável que, para todos os efeitos, se encontra em processo de construção (work in progress), neste caso, graças à plasticidade do corpo, do espaço, da imagem e do uso criativo das tecnologias digitais, no âmbito das quais, aliás, tudo se parece produzir, transformar e disseminar hoje em dia à nossa volta (quase como se de uma autêntica viagem interactiva se tratasse). Por isso, a partir daqui, todo o esforço que se segue procurará ensaiar uma hipótese de trabalho (desenvolver uma investigação) que, porventura, nos permita desbravar alguns caminhos em direcção aos intermináveis túneis do futuro, sempre na expectativa de podermos dar forma, função e sentido a um desejo irreprimível de liberdade criativa, pois, a arte contemporânea tem essa extraordinária capacidade de nos transportar para muitos outros lugares do mundo, tão reais e imaginários como a nossa própria vida. Assim sendo, há que sumariar algumas das principais etapas a desenvolver ao longo desta investigação. Ora, num primeiro momento, começaremos por reflectir sobre o conceito alargado de «crise» (a crise da modernidade), para logo de seguida podermos abordar a questão da crise das antigas categorias estéticas, questionando assim, para todos os efeitos, quer o conceito de «belo» (Platão) e de «gosto» (Kant), quer ainda o conceito de «forma» (Foccilon), não só no sentido de tentarmos compreender algumas das principais razões que terão estado na origem do chamado «fim da arte» (Hegel), mas também algumas daquelas que terão conduzido à estetização generalizada da experiência contemporânea e à sua respectiva disseminação pelas mais variadas plataformas digitais. Num segundo momento, procuraremos reflectir sobre alguns dos principais problemas da inquietante história das imagens, nomeadamente para tentarmos perceber como é que todas estas transformações técnicas (ligadas ao aparecimento da fotografia, do cinema, do vídeo, do computador e da internet) terão contribuído para o processo de instauração e respectivo alargamento daquilo que todos nós ficaríamos a conhecer como a nova «era da imagem», ou a imagem na «era da sua própria reprodutibilidade técnica» (Benjamin), pois, só assim é que conseguiremos interrogar este imparável processo de movimentação, fragmentação, disseminação, simulação e interacção das mais variadas «formas de vida» (Nietzsche, Agamben). Entretanto, chegados ao terceiro grande momento, interessa-nos percepcionar a arte contemporânea como uma espécie de plataforma interactiva que, por sua vez, nos levará a interpelar alguns dos principais dispositivos metafóricos e experimentais da viagem, neste caso, da viagem enquanto linha facilitadora de acesso à arte, à cultura e à vida contemporânea em geral, ou seja, todo um processo de reflexão que nos incitará a cartografar alguns dos mais atractivos sintomas provenientes da estética do flâneur (na perspectiva de Rimbaud, Baudelaire, Long e Benjamin) e, consequentemente, a convocar algumas das principais sensações decorrentes da experiência altamente sedutora daqueles que vivem mergulhados na órbita interactiva do ciberespaço (na condição de ciberflâneurs), quase como se o mundo inteiro, agora, fosse tão somente um espaço poético «inteiramente navegável» (Manovich). Por fim, no quarto e último momento, procuraremos fazer uma profunda reflexão sobre a inquietante história do corpo, principalmente com o objectivo de reforçar a ideia de que apesar das suas inúmeras fragilidades biológicas (um ser que adoece e morre), o corpo continua a ser uma das «categorias mais persistentes de toda a cultura ocidental» (Ieda Tucherman), não só porque ele resistiu a todas as transformações que lhe foram impostas historicamente, mas também porque ele se soube reinventar e readaptar pacientemente face a todas essas transformações históricas. Sinal evidente de que a sua plasticidade lhe iria conferir, principalmente a partir do século XX («o século do corpo») um estatuto teórico e performativo verdadeiramente especial. Tão especial, aliás, que basta termos uma noção, mesmo que breve, da sua inquietante história para percebermos imediatamente a extraordinária importância dalgumas das suas mais variadas transformações, atracções, ligações e exibições ao longo das últimas décadas, nomeadamente sob o efeito criativo das tecnologias digitais (no âmbito das quais se processam algumas das mais interessantes operações de dinamização cultural e artística do nosso tempo). Em suma, esperamos sinceramente que este trabalho de investigação possa vir a contribuir para o processo de alargamento das fronteiras cada vez mais incertas, dinâmicas e interactivas do conhecimento daquilo que parece constituir, hoje em dia, o jogo fundamental da nossa contemporaneidade.
Resumo:
A avaliação do processamento radiográfico utilizando o "STEP test" ("sensitometric test for the evaluation of processing") tem como objetivo a identificação de desvios importantes no sistema processadora-químicos-filmes. Neste tipo de avaliação são estabelecidas as condições ideais para o processamento. Um filme padrão é revelado de acordo com as condições do fabricante, ou seja, com padrão igual a 100. O filme é exposto à luz de um sensitômetro calibrado e os valores dos degraus são avaliados com o uso de um densitômetro, sendo obtida sua curva característica (densidade óptica × degrau). O desvio porcentual máximo deve ser de 20% quando comparado com a curva padrão. Este método é útil na identificação de problemas no processamento radiográfico. Várias processadoras de hospitais públicos/universitários foram avaliadas empregando este método, e verificou-se que aproximadamente 33% das instalações apresentam condições inadequadas de processamento.
Resumo:
OBJETIVO: Foi realizada avaliação da dose de entrada na pele, da dose efetiva e da qualidade da imagem em radiografias de tórax de pacientes adultos. MATERIAIS E MÉTODOS: O estudo realizou-se em oito hospitais, sendo sete públicos (dois filantrópicos) e um particular nos municípios de Angra dos Reis, Cabo Frio, Campos dos Goytacazes, Itaperuna, Niterói, Recife e Rio de Janeiro. Foram avaliadas a dose de entrada na pele e a dose efetiva de 735 radiografias de tórax nas incidências póstero-anterior/ântero-posterior e perfil. No que se refere aos critérios de imagem, foram avaliadas 44 radiografias. RESULTADOS: Constatou-se variação de até nove vezes nos valores da dose de entrada na pele e de até seis vezes na dose efetiva para um mesmo tipo de projeção. Os valores das técnicas radiográficas também apresentaram grandes discrepâncias. A qualidade das imagens também não é boa, pois foi obtido valor médio de presença dos critérios de apenas 55%. CONCLUSÃO: Há necessidade de melhoria/padronização de procedimentos em radiologia convencional, o que pode ser atingido se for implantado um programa de controle e garantia de qualidade no setor de radiologia, incluindo o treinamento dos técnicos, a aferição do desempenho dos equipamentos emissores de radiação e o controle sensitométrico do sistema de processamento radiográfico.
Resumo:
OBJETIVO: Desenvolver um programa computacional para avaliar e controlar as características das curvas sensitométricas. MATERIAIS E MÉTODOS: Para o desenvolvimento do programa, foi elaborado um método de obtenção dos valores das características sensitométricas, de filmes de baixo e alto contraste, sem a necessidade da fixação de degraus de referência. RESULTADOS: O programa, denominado Sensito, foi implementado e testado utilizando dados sensitométricos de curvas características dos departamentos de radiologia convencional, hemodinâmica e mamografia. Ficou comprovada a possibilidade da análise das curvas sensitométricas destas áreas sem a necessidade de ajustes, dependentes dos usuários, e sem incorrer em desvios nos parâmetros sensitométricos avaliados e na variação destes. CONCLUSÃO: O programa possibilita a criação de um banco de dados de curvas sensitométricas para diferentes processadoras de uma instituição, gerando com facilidade as curvas sensitométrica e gama, de um registro, e os gráficos de constância das características sensitométricas avaliadas, fornecendo importante ferramenta para manter o controle sensitométrico.
Resumo:
OBJETIVO: O objetivo deste estudo foi identificar a situação do gerenciamento de efluentes radiográficos em serviços de diagnóstico por imagem, em relação ao manuseio, acondicionamento, armazenamento, tratamento e descarte desses efluentes. MATERIAIS E MÉTODOS: Tratou-se de estudo descritivo e exploratório, realizado por meio de entrevistas baseadas em roteiro com perguntas semiestruturadas, realizadas no período de fevereiro a maio de 2009. A investigação foi realizada em 12 serviços de saúde humana e animal de radiodiagnóstico de Ribeirão Preto, SP, Brasil, escolhidos aleatoriamente por sorteio por meio do programa Statistical Package for the Social Sciences, versão 10.0. RESULTADOS: De acordo com os entrevistados, 16,66% dos serviços descartavam revelador usado na rede pública de esgoto, sem tratamento prévio, 8,33% descartavam o fixador e 75% descartavam a água de lavagem de filmes diretamente no esgoto, sem tratamento prévio. CONCLUSÃO: Os resultados deste estudo evidenciam necessidade de maior fiscalização, controle e monitoramento, pela vigilância ambiental e sanitária, para com os efluentes radiográficos, estimulando tratamento antes do descarte, minimizando o impacto à saúde pública e ao ambiente.
Integrando ferramentas de auxílio ao diagnóstico no sistema de arquivamento e comunicação de imagens
Resumo:
OBJETIVO: Este artigo apresenta um modelo de integração de algoritmos de diagnóstico auxiliado por computador dentro do fluxo de trabalho dos sistemas de gerenciamento de imagens, desenvolvido com base em um conjunto de ferramentas computacionais de código aberto e uso livre chamado dcm4che2. MATERIAIS E MÉTODOS: O modelo de integração é composto por um servidor de processamento de imagens e por serviços de comunicação. O gerenciamento de dados segue o fluxo de trabalho definido pelo perfil de pós-processamento (PWF) do Integrating the Healthcare Enterprise (IHE) e utiliza a funcionalidade de captura secundária do DICOM. Uma aplicação para lesões difusas de pulmão foi utilizada para prova de conceito. RESULTADOS: O algoritmo de classificação de padrões apresentou acurácia de 78%, com base em um método de teste de validação cruzada. A integração possibilita a visualização das imagens processadas como uma nova série dentro do estudo original. CONCLUSÃO: O modelo de integração proposto baseiase em perfis do IHE e permite o estabelecimento de procedimentos padronizados. Os princípios utilizados para integração do fluxo de trabalho são aplicáveis para qualquer tarefa não interativa de pós-processamento de imagens.
Resumo:
Apresenta-se neste trabalho, estudo detalhado sobre a modelagem de um condicionador de ar com controle acurado de temperatura e umidade relativa. Desenvolveu-se um programa de computador que permite predizer o comportamento do sistema sob diferentes condições psicrométricas e de vazão do ar de entrada. O modelo global físico-matemático inclui equações de balanço de massa e de energia para três diferentes volumes de controle que compõem o condicionador. Modelaram-se os processos de mistura, evaporação (ou condensação) simultânea de uma superfície d'água e de uma gota e o aquecimento de corrente de ar, separadamente. Propõem-se expressões semi-empíricas simples para os coeficientes de transferência de calor e massa inerentes ao processo de evaporação sobre uma superfície d'água e um modelo simplificado para o sistema de spray. Construiu-se um condicionador de ar no qual foram feitos testes experimentais para o ajuste das constantes que aparecem nas expressões para os coeficientes de transferência. Os dados obtidos validaram o modelo global, com precisão aceitável para projetos de engenharia.
Resumo:
Neste trabalho, foi aplicado o processamento de imagens digitais auxiliado pelas Redes Neurais Artificiais (RNA) com a finalidade de identificar algumas variedades de soja por meio da forma e do tamanho das sementes. Foram analisadas as seguintes variedades: EMBRAPA 133, EMBRAPA 184, COODETEC 205, COODETEC 206, EMBRAPA 48, SYNGENTA 8350, FEPAGRO 10 e MONSOY 8000 RR, safra 2005/2006. O processamento das imagens foi constituído pelas seguintes etapas: 1) Aquisição da imagem: as amostras de cada variedade foram fotografadas por máquina fotográfica Coolpix995, Nikon, com resolução de 3.34 megapixels; 2) Pré-processamento: um filtro de anti-aliasing foi aplicado para obter tons acinzentados da imagem; 3) Segmentação: foi realizada a detecção das bordas das sementes (Método de Prewitt), dilatação dessas bordas e remoção de segmentos não-necessários para a análise. 4) Representação: cada semente foi representada na forma de matriz binária 130x130, e 5) Reconhecimento e interpretação: foi utilizada uma rede neural feedforward multicamadas, com três camadas ocultas. O treinamento da rede foi realizado pelo método backpropagation. A validação da RNA treinada mostrou que o processamento aplicado pode ser usado para a identificação das variedades consideradas.