9 resultados para PROCESSAMENTO DE IMAGENS

em Biblioteca de Teses e Dissertações da USP


Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Uma imagem engloba informação que precisa ser organizada para interpretar e compreender seu conteúdo. Existem diversas técnicas computacionais para extrair a principal informação de uma imagem e podem ser divididas em três áreas: análise de cor, textura e forma. Uma das principais delas é a análise de forma, por descrever características de objetos baseadas em seus pontos fronteira. Propomos um método de caracterização de imagens, por meio da análise de forma, baseada nas propriedades espectrais do laplaciano em grafos. O procedimento construiu grafos G baseados nos pontos fronteira do objeto, cujas conexões entre vértices são determinadas por limiares T_l. A partir dos grafos obtêm-se a matriz de adjacência A e a matriz de graus D, as quais definem a matriz Laplaciana L=D -A. A decomposição espectral da matriz Laplaciana (autovalores) é investigada para descrever características das imagens. Duas abordagens são consideradas: a) Análise do vetor característico baseado em limiares e a histogramas, considera dois parâmetros o intervalo de classes IC_l e o limiar T_l; b) Análise do vetor característico baseado em vários limiares para autovalores fixos; os quais representam o segundo e último autovalor da matriz L. As técnicas foram testada em três coleções de imagens: sintéticas (Genéricas), parasitas intestinais (SADPI) e folhas de plantas (CNShape), cada uma destas com suas próprias características e desafios. Na avaliação dos resultados, empregamos o modelo de classificação support vector machine (SVM), o qual avalia nossas abordagens, determinando o índice de separação das categorias. A primeira abordagem obteve um acerto de 90 % com a coleção de imagens Genéricas, 88 % na coleção SADPI, e 72 % na coleção CNShape. Na segunda abordagem, obtém-se uma taxa de acerto de 97 % com a coleção de imagens Genéricas; 83 % para SADPI e 86 % no CNShape. Os resultados mostram que a classificação de imagens a partir do espectro do Laplaciano, consegue categorizá-las satisfatoriamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Assunto bastante abordado quando se trata de Sistemas Inteligentes de Transportes (ITS), a identificação veicular - utilizada em grande parte das aplicações de ITS deve ser entendida como um conjunto de recursos de hardware, software e telecomunicações, que interagem para atingir, do ponto de vista funcional, o objetivo de, conseguir extrair e transmitir, digitalmente, a identidade de um veículo. É feita tanto por sistemas que transmitem e recebem uma identidade digital quanto por sistemas que, instalados na infraestrutura da via, são capazes de reconhecer a placa dos veículos circulantes. Quando se trata da identificação automática por meio do reconhecimento da placa veicular, os estudos têm se concentrado sobremaneira nas tecnologias de processamento de imagens, não abordando - em sua maioria - uma visão sistêmica, necessária para compreender de maneira mais abrangente todas as variáveis que podem interferir na eficácia da identificação. Com o objetivo de contribuir para melhor entender e utilizar os sistemas de reconhecimento automático de placas veiculares, este trabalho propõe um modelo sistêmico, em camadas, para representar seus componentes. Associada a esse modelo, propõe uma classificação para os diversos tipos de falhas que podem prejudicar seu desempenho. Uma análise desenvolvida com resultados obtidos em testes realizados em campo com sistemas de identificação de placas voltados à fiscalização de veículos aponta resultados relevantes e limitações para obter correlações entre variáveis, em função dos diversos fatores que podem influenciar os resultados. Algumas entrevistas realizadas apontam os tipos de falhas que ocorrem com mais frequência durante a operação desses sistemas. Finalmente, este trabalho propõe futuros estudos e apresenta um glossário de termos, que poderá ser útil a novos pesquisadores.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Uma grande diversidade de macrofibras poliméricas para reforço de concreto se encontram disponibilizadas hoje em dia. Por natureza estas fibras apresentam grande diversidade de características e propriedades. Estas variações afetam sua atuação como reforço no concreto. No entanto, não há normas brasileiras sobre o assunto e as metodologias de caracterização de normas estrangeiras apresentam divergências. Algumas normas definem que a caracterização do comportamento mecânico deva ser feita nos fios originais e outras que se devam utilizar métodos definidos para caracterização de materiais metálicos. A norma EN14889-2:2006 apresenta maior abrangência, mas deixa dúvidas quanto à adequação dos critérios de caracterização geométrica das fibras e não define um método de ensaio específico para sua caracterização mecânica. Assim, há a necessidade de estabelecimento de uma metodologia que permita a realização de um programa de controle de qualidade da fibra nas condições de emprego. Esta metodologia também proporcionaria uma forma de caracterização do material para estudos experimentais, o que permitiria maior fundamentação científica desses trabalhos que, frequentemente, fundamentam-se apenas em dados dos fabricantes. Assim, foi desenvolvido um estudo experimental focando a caracterização de duas macrofibras poliméricas disponíveis no mercado brasileiro. Focou-se o estudo na determinação dos parâmetros geométricos e na caracterização mecânica através da determinação da resistência à tração e avaliação do módulo de elasticidade. Na caracterização geométrica foi adotada como referência a norma europeia EN14889-2:2006. As medições do comprimento se efetuaram por dois métodos: o método do paquímetro e o método de análise de imagens digitais, empregando um software para processamento das imagens. Para a medição do diâmetro, além das metodologias mencionadas, foi usado o método da densidade. Conclui-se que o método do paquímetro, com o cuidado de esticar previamente as macrofibras, e o método das imagens digitais podem ser igualmente utilizados para medir o comprimento. Já parar determinar o diâmetro, recomenda-se o método da densidade. Quanto à caracterização mecânica, foi desenvolvida uma metodologia própria a partir de informações obtidas de outros ensaios. Assim, efetuaram-se ensaios de tração direta nas macrofibras coladas em molduras de tecido têxtil. Complementarmente, foi avaliado também o efeito do contato abrasivo das macrofibras com os agregados durante a mistura em betoneira no comportamento mecânico do material. Também se avaliou o efeito do método de determinação da área da seção transversal nos resultados medidos no ensaio de tração da fibra. Conclui-se que o método proposto para o ensaio de tração direta da fibra é viável, especialmente para a determinação da resistência à tração. O valor do módulo de elasticidade, por sua vez, acaba sendo subestimado. A determinação da área da seção da fibra através do método da densidade forneceu também os melhores resultados. Além disso, comprovou-se que o atrito das fibras com o agregado durante a mistura compromete o comportamento mecânico, reduzindo tanto a resistência quanto o módulo de elasticidade. Assim, pode-se afirmar que a metodologia proposta para o controle geométrico e mecânico das macrofibras poliméricas é adequada para a caracterização do material.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nas últimas décadas, a poluição sonora tornou-se um grande problema para a sociedade. É por esta razão que a indústria tem aumentado seus esforços para reduzir a emissão de ruído. Para fazer isso, é importante localizar quais partes das fontes sonoras são as que emitem maior energia acústica. Conhecer os pontos de emissão é necessário para ter o controle das mesmas e assim poder reduzir o impacto acústico-ambiental. Técnicas como \"beamforming\" e \"Near-Field Acoustic Holography\" (NAH) permitem a obtenção de imagens acústicas. Essas imagens são obtidas usando um arranjo de microfones localizado a uma distância relativa de uma fonte emissora de ruído. Uma vez adquiridos os dados experimentais pode-se obter a localização e magnitude dos principais pontos de emissão de ruído. Do mesmo modo, ajudam a localizar fontes aeroacústicas e vibro acústicas porque são ferramentas de propósito geral. Usualmente, estes tipos de fontes trabalham em diferentes faixas de frequência de emissão. Recentemente, foi desenvolvida a transformada de Kronecker para arranjos de microfones, a qual fornece uma redução significativa do custo computacional quando aplicada a diversos métodos de reconstrução de imagens, desde que os microfones estejam distribuídos em um arranjo separável. Este trabalho de mestrado propõe realizar medições com sinais reais, usando diversos algoritmos desenvolvidos anteriormente em uma tese de doutorado, quanto à qualidade do resultado obtido e à complexidade computacional, e o desenvolvimento de alternativas para tratamento de dados quando alguns microfones do arranjo apresentarem defeito. Para reduzir o impacto de falhas em microfones e manter a condição de que o arranjo seja separável, foi desenvolvida uma alternativa para utilizar os algoritmos rápidos, eliminando-se apenas os microfones com defeito, de maneira que os resultados finais serão obtidos levando-se em conta todos os microfones do arranjo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: Embora alterações estruturais cerebrais na esquizofrenia venham sendo repetidamente demonstradas em estudos de ressonância magnética (RM), ainda permanece incerto se tais alterações são estáticas ou progressivas. Enquanto estudos longitudinais são tradicionalmente utilizados na avaliação da questão da progressão, estudos transversais de neuroimagem comparando diretamente pacientes com esquizofrenia crônica e de primeiro episódio a controles saudáveis têm sido bastante raros até o presente. Com o recente interesse em meganálises combinando dados multicêntricos de RM visando-se a maior poder estatístico, o presente estudo multicêntrico de morfometria baseada no voxel (VBM) foi realizado para avaliar os padrões de alterações estruturais cerebrais segundo os diferentes estágios da doença, bem como para avaliar quais (se alguma) dessas alterações se correlacionariam especificamente a moderadores clínicos potenciais, tais como exposição cumulativa a antipsicóticos, tempo de doença e gravidade da doença. Métodos: Selecionou-se uma ampla amostra de pacientes com esquizofrenia (161, sendo 99 crônicos e 62 de primeiro episódio) e controles (151) a partir de quatro estudos prévios de RM (1,5T) realizados na mesma região do Brasil. O processamento e análise das imagens foi realizado usando-se o software Statistical Parametric Mapping (SPM8) com emprego do algoritmo DARTEL (diffeomorphic anatomical registration through exponentiated Lie algebra). Os efeitos de grupo sobre os volumes regionais de substância cinzenta (SC) foram analisados através de comparações voxel-a-voxel por análises de covariância em modelos lineares gerais, inserindo-se, em todas as análises, o volume total de SC, protocolo do scanner, idade e sexo como variáveis de confusão. Por fim, foram realizadas análises de correlação entre os aludidos moderadores clínicos potenciais e os volumes cerebrais globais e regionais. Resultados: Os pacientes com esquizofrenia de primeiro episódio apresentaram reduções volumétricas sutis em comparação aos controles, em um circuito neural circunscrito e identificável apenas em análises SVC (small volume correction) [p < 0.05, com correção family-wise error (FWE)], incluindo a ínsula, estruturas têmporo-límbicas e corpo estriado. Os pacientes crônicos, por outro lado, apresentaram um padrão de alterações extensas comparativamente aos controles, envolvendo os córtices frontais orbitais, superiores e inferiores bilateralmente, córtex frontal médio direito, ambos os córtices cingulados anteriores, ambas as ínsulas, e os córtices temporais superior e médio direitos (p < 0.05, análises whole-brain com correção FWE). Foram encontradas correlações negativas significantes entre exposição cumulativa a antipsicóticos e volumes globais de SC e substância branca nos pacientes com esquizofrenia, embora as correlações com reduções regionais não tenham sido significantes. Detectaram-se, ainda, correlações negativas significantes entre tempo de doença e volumes regionais relativos da ínsula esquerda, córtex cingulado anterior direito e córtices pré-frontais dorsolaterais nas análises SVC para os grupos conjuntos (esquizofrenia crônica e de primeiro episódio). Conclusão: Os achados supracitados indicam que: a) as alterações estruturais associadas com o diagnóstico de esquizofrenia são mais disseminadas na forma crônica em comparação à de primeiro episódio; b) reduções volumétricas regionais em áreas específicas do cérebro podem variar em função do tempo de doença; c) a exposição cumulativa a antipsicóticos associou-se a alterações volumétricas globais, e não regionais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo do movimento pulmonar é assunto de grande interesse na área médica. A observação direta do mesmo é inviável, uma vez que o pulmão colapsa quando a caixa torácica é aberta. Dentre os meios de observação indireta, escolheu-se o imageamento por ressonância magnética em respiração livre e sem uso de nenhum gás para melhorar o contraste ou qualquer informação de sincronismo. Esta escolha propõe diversos desafios, como: a superar a alta variação na qualidade das imagens, que é baixa, em geral, e a suscetibilidade a artefatos, entre outras limitações a serem superadas. Imagens de Tomografia Computadorizada apresentam melhor qualidade e menor tempo de aquisição, mas expõem o paciente a níveis consideráveis de radiação ionizante. É apresentada uma metodologia para segmentação do pulmão, produzindo um conjunto de pontos coordenados. Isto é feito através do processamento temporal da sequência de imagens de RM. Este processamento consiste nas seguintes etapas: geração de imagens temporais (2DSTI), transformada de Hough modificada, algoritmo de contornos ativos e geração de silhueta. A partir de um dado ponto, denominado centro de rotação, são geradas diversas imagens temporais com orientações variadas. É proposta uma formulação modificada da transformada de Hough para determinar curvas parametrizadas que sejam síncronas ao movimento diafragmático, chamados movimentos respiratórios. Também são utilizadas máscaras para delimitar o domínio de aplicação da transformada de Hough. São obtidos movimentos respiratórios que são suavizados pelo algoritmo de contornos ativos e, assim, permitem a geração de contornos para cada quadro pertencente a sequência e, portanto, de uma silhueta do pulmão para cada sequência.