14 resultados para Computação de imagens

em Biblioteca de Teses e Dissertações da USP


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A eficiência da amamentação exige uma complexa coordenação entre sucção, deglutição e respiração, sendo que a tecnologia tem possibilitado importantes avanços na compreensão desse processo. Porém, não foram encontrados vídeos disponíveis na internet que demonstrassem a anatomia e fisiologia da amamentação, de modo didático e fidedigno à ciência atual. Este trabalho teve por objetivo descrever o desenvolvimento de uma sequência em computação gráfica sobre a sucção e a deglutição, resultante da produção digital do Bebê Virtual, bem como validar tal produção quanto ao conteúdo e prover adequações necessárias ao material educacional. Para a produção das iconografias em 3D da sucção e deglutição no Bebê Virtual, inicialmente foi elaborado um mapa conceitual e uma matriz de conteúdos, objetivos e competências voltadas ao material educacional. Posteriormente foi elaborado um roteiro científico que abordou a anatomia do crânio, face, cavidade oral, faringe, laringe e esôfago do recém-nascido, bem como, a descrição dos mecanismos fisiológicos relacionados à sucção e às fases oral e faríngea da deglutição no bebê. Para isso foram utilizadas 14 publicações do período de 1998 a 2008, que continham informações relevantes para demonstrar a amamentação. Os conteúdos teóricos foram organizados em cenas principais, possibilitando a criação de previews das sequências dinâmicas, as quais foram avaliadas por profissionais de anatomia, fonoaudiologia e medicina, possibilitando os ajustes necessários e a construção das imagens em computação gráfica 3D. Para análise da validade de conteúdo dessas imagens foi verificada a representatividade dos itens que o compõe, por meio de consulta à literatura. Foram incluídos estudos que utilizaram auxílio tecnológico e abordaram o tema proposto em bebês a termo e saudáveis, sem alterações neurológicas ou anomalias craniofaciais. Foram excluídas as publicações realizadas com bebês pré-termo, sindrômicos, com anomalias, doenças neurológicas ou qualquer alteração que pudesse interferir na amamentação, revisões de literatura e relatos de caso. Os artigos selecionados foram analisados e classificados quanto ao nível de evidência científica, predominando o nível três de evidência. A análise de conteúdo demonstrou a necessidade de adequações nas iconografias 3D, para que o processo de sucção e deglutição demonstrado no bebê virtual pudesse corresponder ao conhecimento científico atual. Tais adequações foram propostas a partir dos achados de 9 estudos, publicados entre 2008 e 2014, que utilizaram ultrassonografia para demonstrar como ocorre o processo de amamentação. Desta forma, foram modificados os aspectos da pega, da movimentação de língua, mandíbula, palato mole e laringe, além da sincronização da sucção/deglutição/respiração e deslocamento do mamilo, num processo desenvolvido em cinco etapas. Assim, o presente estudo descreveu o processo de desenvolvimento das iconografias em 3D sobre a anatomia e fisiologia da sucção e deglutição no recém-nascido a termo, sendo que a validade de conteúdo permitiu atualizar vários aspectos da amamentação do Bebê Virtual, quebrando velhos paradigmas e possibilitando ilustrar didaticamente as evidências científicas relacionadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vários métodos tradicionais de segmentação de imagens, como a transformada de watershed de marcado- res e métodos de conexidade fuzzy (Relative Fuzzy Connectedness- RFC, Iterative Relative Fuzzy Connected- ness - IRFC), podem ser implementados de modo eficiente utilizando o método em grafos da Transformada Imagem-Floresta (Image Foresting Transform - IFT). No entanto, a carência de termos de regularização de fronteira em sua formulação fazem com que a borda do objeto segmentado possa ser altamente irregular. Um modo de contornar isto é por meio do uso de restrições de forma do objeto, que favoreçam formas mais regulares, como na recente restrição de convexidade geodésica em estrela (Geodesic Star Convexity - GSC). Neste trabalho, apresentamos uma nova restrição de forma, chamada de Faixa de Restrição Geodésica (Geodesic Band Constraint - GBC), que pode ser incorporada eficientemente em uma sub-classe do fra- mework de corte em grafos generalizado (Generalized Graph Cut - GGC), que inclui métodos pela IFT. É apresentada uma prova da otimalidade do novo algoritmo em termos de um mínimo global de uma função de energia sujeita às novas restrições de borda. A faixa de restrição geodésica nos ajuda a regularizar a borda dos objetos, consequentemente melhorando a segmentação de objetos com formas mais regulares, mantendo o baixo custo computacional da IFT. A GBC pode também ser usada conjuntamente com um mapa de custos pré estabelecido, baseado em um modelo de forma, de modo a direcionar a segmentação a seguir uma dada forma desejada, com grau de liberdade de escala e demais deformações controladas por um parâmetro único. Essa nova restrição também pode ser combinada com a GSC e com as restrições de polaridade de borda sem custo adicional. O método é demonstrado em imagens naturais, sintéticas e médicas, sendo estas provenientes de tomografias computadorizadas e de ressonância magnética.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, a poluição sonora tornou-se um grande problema para a sociedade. É por esta razão que a indústria tem aumentado seus esforços para reduzir a emissão de ruído. Para fazer isso, é importante localizar quais partes das fontes sonoras são as que emitem maior energia acústica. Conhecer os pontos de emissão é necessário para ter o controle das mesmas e assim poder reduzir o impacto acústico-ambiental. Técnicas como \"beamforming\" e \"Near-Field Acoustic Holography\" (NAH) permitem a obtenção de imagens acústicas. Essas imagens são obtidas usando um arranjo de microfones localizado a uma distância relativa de uma fonte emissora de ruído. Uma vez adquiridos os dados experimentais pode-se obter a localização e magnitude dos principais pontos de emissão de ruído. Do mesmo modo, ajudam a localizar fontes aeroacústicas e vibro acústicas porque são ferramentas de propósito geral. Usualmente, estes tipos de fontes trabalham em diferentes faixas de frequência de emissão. Recentemente, foi desenvolvida a transformada de Kronecker para arranjos de microfones, a qual fornece uma redução significativa do custo computacional quando aplicada a diversos métodos de reconstrução de imagens, desde que os microfones estejam distribuídos em um arranjo separável. Este trabalho de mestrado propõe realizar medições com sinais reais, usando diversos algoritmos desenvolvidos anteriormente em uma tese de doutorado, quanto à qualidade do resultado obtido e à complexidade computacional, e o desenvolvimento de alternativas para tratamento de dados quando alguns microfones do arranjo apresentarem defeito. Para reduzir o impacto de falhas em microfones e manter a condição de que o arranjo seja separável, foi desenvolvida uma alternativa para utilizar os algoritmos rápidos, eliminando-se apenas os microfones com defeito, de maneira que os resultados finais serão obtidos levando-se em conta todos os microfones do arranjo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A ciência tem feito uso frequente de recursos computacionais para execução de experimentos e processos científicos, que podem ser modelados como workflows que manipulam grandes volumes de dados e executam ações como seleção, análise e visualização desses dados segundo um procedimento determinado. Workflows científicos têm sido usados por cientistas de várias áreas, como astronomia e bioinformática, e tendem a ser computacionalmente intensivos e fortemente voltados à manipulação de grandes volumes de dados, o que requer o uso de plataformas de execução de alto desempenho como grades ou nuvens de computadores. Para execução dos workflows nesse tipo de plataforma é necessário o mapeamento dos recursos computacionais disponíveis para as atividades do workflow, processo conhecido como escalonamento. Plataformas de computação em nuvem têm se mostrado um alternativa viável para a execução de workflows científicos, mas o escalonamento nesse tipo de plataforma geralmente deve considerar restrições específicas como orçamento limitado ou o tipo de recurso computacional a ser utilizado na execução. Nesse contexto, informações como a duração estimada da execução ou limites de tempo e de custo (chamadas aqui de informações de suporte ao escalonamento) são importantes para garantir que o escalonamento seja eficiente e a execução ocorra de forma a atingir os resultados esperados. Este trabalho identifica as informações de suporte que podem ser adicionadas aos modelos de workflows científicos para amparar o escalonamento e a execução eficiente em plataformas de computação em nuvem. É proposta uma classificação dessas informações, e seu uso nos principais Sistemas Gerenciadores de Workflows Científicos (SGWC) é analisado. Para avaliar o impacto do uso das informações no escalonamento foram realizados experimentos utilizando modelos de workflows científicos com diferentes informações de suporte, escalonados com algoritmos que foram adaptados para considerar as informações inseridas. Nos experimentos realizados, observou-se uma redução no custo financeiro de execução do workflow em nuvem de até 59% e redução no makespan chegando a 8,6% se comparados à execução dos mesmos workflows sendo escalonados sem nenhuma informação de suporte disponível.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: Embora alterações estruturais cerebrais na esquizofrenia venham sendo repetidamente demonstradas em estudos de ressonância magnética (RM), ainda permanece incerto se tais alterações são estáticas ou progressivas. Enquanto estudos longitudinais são tradicionalmente utilizados na avaliação da questão da progressão, estudos transversais de neuroimagem comparando diretamente pacientes com esquizofrenia crônica e de primeiro episódio a controles saudáveis têm sido bastante raros até o presente. Com o recente interesse em meganálises combinando dados multicêntricos de RM visando-se a maior poder estatístico, o presente estudo multicêntrico de morfometria baseada no voxel (VBM) foi realizado para avaliar os padrões de alterações estruturais cerebrais segundo os diferentes estágios da doença, bem como para avaliar quais (se alguma) dessas alterações se correlacionariam especificamente a moderadores clínicos potenciais, tais como exposição cumulativa a antipsicóticos, tempo de doença e gravidade da doença. Métodos: Selecionou-se uma ampla amostra de pacientes com esquizofrenia (161, sendo 99 crônicos e 62 de primeiro episódio) e controles (151) a partir de quatro estudos prévios de RM (1,5T) realizados na mesma região do Brasil. O processamento e análise das imagens foi realizado usando-se o software Statistical Parametric Mapping (SPM8) com emprego do algoritmo DARTEL (diffeomorphic anatomical registration through exponentiated Lie algebra). Os efeitos de grupo sobre os volumes regionais de substância cinzenta (SC) foram analisados através de comparações voxel-a-voxel por análises de covariância em modelos lineares gerais, inserindo-se, em todas as análises, o volume total de SC, protocolo do scanner, idade e sexo como variáveis de confusão. Por fim, foram realizadas análises de correlação entre os aludidos moderadores clínicos potenciais e os volumes cerebrais globais e regionais. Resultados: Os pacientes com esquizofrenia de primeiro episódio apresentaram reduções volumétricas sutis em comparação aos controles, em um circuito neural circunscrito e identificável apenas em análises SVC (small volume correction) [p < 0.05, com correção family-wise error (FWE)], incluindo a ínsula, estruturas têmporo-límbicas e corpo estriado. Os pacientes crônicos, por outro lado, apresentaram um padrão de alterações extensas comparativamente aos controles, envolvendo os córtices frontais orbitais, superiores e inferiores bilateralmente, córtex frontal médio direito, ambos os córtices cingulados anteriores, ambas as ínsulas, e os córtices temporais superior e médio direitos (p < 0.05, análises whole-brain com correção FWE). Foram encontradas correlações negativas significantes entre exposição cumulativa a antipsicóticos e volumes globais de SC e substância branca nos pacientes com esquizofrenia, embora as correlações com reduções regionais não tenham sido significantes. Detectaram-se, ainda, correlações negativas significantes entre tempo de doença e volumes regionais relativos da ínsula esquerda, córtex cingulado anterior direito e córtices pré-frontais dorsolaterais nas análises SVC para os grupos conjuntos (esquizofrenia crônica e de primeiro episódio). Conclusão: Os achados supracitados indicam que: a) as alterações estruturais associadas com o diagnóstico de esquizofrenia são mais disseminadas na forma crônica em comparação à de primeiro episódio; b) reduções volumétricas regionais em áreas específicas do cérebro podem variar em função do tempo de doença; c) a exposição cumulativa a antipsicóticos associou-se a alterações volumétricas globais, e não regionais

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma imagem engloba informação que precisa ser organizada para interpretar e compreender seu conteúdo. Existem diversas técnicas computacionais para extrair a principal informação de uma imagem e podem ser divididas em três áreas: análise de cor, textura e forma. Uma das principais delas é a análise de forma, por descrever características de objetos baseadas em seus pontos fronteira. Propomos um método de caracterização de imagens, por meio da análise de forma, baseada nas propriedades espectrais do laplaciano em grafos. O procedimento construiu grafos G baseados nos pontos fronteira do objeto, cujas conexões entre vértices são determinadas por limiares T_l. A partir dos grafos obtêm-se a matriz de adjacência A e a matriz de graus D, as quais definem a matriz Laplaciana L=D -A. A decomposição espectral da matriz Laplaciana (autovalores) é investigada para descrever características das imagens. Duas abordagens são consideradas: a) Análise do vetor característico baseado em limiares e a histogramas, considera dois parâmetros o intervalo de classes IC_l e o limiar T_l; b) Análise do vetor característico baseado em vários limiares para autovalores fixos; os quais representam o segundo e último autovalor da matriz L. As técnicas foram testada em três coleções de imagens: sintéticas (Genéricas), parasitas intestinais (SADPI) e folhas de plantas (CNShape), cada uma destas com suas próprias características e desafios. Na avaliação dos resultados, empregamos o modelo de classificação support vector machine (SVM), o qual avalia nossas abordagens, determinando o índice de separação das categorias. A primeira abordagem obteve um acerto de 90 % com a coleção de imagens Genéricas, 88 % na coleção SADPI, e 72 % na coleção CNShape. Na segunda abordagem, obtém-se uma taxa de acerto de 97 % com a coleção de imagens Genéricas; 83 % para SADPI e 86 % no CNShape. Os resultados mostram que a classificação de imagens a partir do espectro do Laplaciano, consegue categorizá-las satisfatoriamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um das principais características da tecnologia de virtualização é a Live Migration, que permite que máquinas virtuais sejam movimentadas entre máquinas físicas sem a interrupção da execução. Esta característica habilita a implementação de políticas mais sofisticadas dentro de um ambiente de computação na nuvem, como a otimização de uso de energia elétrica e recursos computacionais. Entretanto, a Live Migration pode impor severa degradação de desempenho nas aplicações das máquinas virtuais e causar diversos impactos na infraestrutura dos provedores de serviço, como congestionamento de rede e máquinas virtuais co-existentes nas máquinas físicas. Diferente de diversos estudos, este estudo considera a carga de trabalho da máquina virtual um importante fator e argumenta que escolhendo o momento adequado para a migração da máquina virtual pode-se reduzir as penalidades impostas pela Live Migration. Este trabalho introduz a Application-aware Live Migration (ALMA), que intercepta as submissões de Live Migration e, baseado na carga de trabalho da aplicação, adia a migração para um momento mais favorável. Os experimentos conduzidos neste trabalho mostraram que a arquitetura reduziu em até 74% o tempo das migrações para os experimentos com benchmarks e em até 67% os experimentos com carga de trabalho real. A transferência de dados causada pela Live Migration foi reduzida em até 62%. Além disso, o presente introduz um modelo que faz a predição do custo da Live Migration para a carga de trabalho e também um algoritmo de migração que não é sensível à utilização de memória da máquina virtual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O ouro, assim como outros bens minerais, é uma commodity, ou seja, um produto não diferenciado, com preço determinado pelo mercado internacional, sem a interferência de seus produtores. Diante desse cenário, associado à exaustão dos depósitos minerais de maiores teores, as mineradoras vêm buscando melhores formas de aproveitamento de matérias-primas minerais mais complexas quanto à extração e ao beneficiamento. Os retornos financeiros são obtidos no estrito controle da produção com redução de custos e mitigação de perdas nas operações unitárias. A caracterização tecnológica está inserida como uma abordagem multidisciplinar e fundamental para o melhor aproveitamento dos bens minerais. Possibilita um maior conhecimento do minério e das associações minerais presentes, que auxiliará no desenvolvimento das alternativas de explotação e na otimização do processo em funcionamento. Dentre os procedimentos de caracterização das associações minerais mais acurados citam-se os sistemas automatizados de análise de imagens adquiridas por microscopia eletrônica de varredura. Permitem a avaliação qualitativa ou quantitativa de grande número de partículas quanto à composição química e mineral, partição de elementos nos minerais presentes, formas de associações e liberação entre os minerais. Este estudo se concentra na caracterização de quatro amostras mineralizadas a ouro, de diferentes regiões do Brasil, pela análise automatizada de imagens e por métodos laboratoriais de separações minerais e extração hidrometalúrgica do ouro. A combinação de procedimentos laboratoriais com a análise de imagens permitiu confrontar os resultados das recuperações potenciais, fornecendo subsídios para abordagens de processo, para obtenção da máxima recuperação do ouro e para diagnosticar as características interferentes nesses processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estudo do movimento pulmonar é assunto de grande interesse na área médica. A observação direta do mesmo é inviável, uma vez que o pulmão colapsa quando a caixa torácica é aberta. Dentre os meios de observação indireta, escolheu-se o imageamento por ressonância magnética em respiração livre e sem uso de nenhum gás para melhorar o contraste ou qualquer informação de sincronismo. Esta escolha propõe diversos desafios, como: a superar a alta variação na qualidade das imagens, que é baixa, em geral, e a suscetibilidade a artefatos, entre outras limitações a serem superadas. Imagens de Tomografia Computadorizada apresentam melhor qualidade e menor tempo de aquisição, mas expõem o paciente a níveis consideráveis de radiação ionizante. É apresentada uma metodologia para segmentação do pulmão, produzindo um conjunto de pontos coordenados. Isto é feito através do processamento temporal da sequência de imagens de RM. Este processamento consiste nas seguintes etapas: geração de imagens temporais (2DSTI), transformada de Hough modificada, algoritmo de contornos ativos e geração de silhueta. A partir de um dado ponto, denominado centro de rotação, são geradas diversas imagens temporais com orientações variadas. É proposta uma formulação modificada da transformada de Hough para determinar curvas parametrizadas que sejam síncronas ao movimento diafragmático, chamados movimentos respiratórios. Também são utilizadas máscaras para delimitar o domínio de aplicação da transformada de Hough. São obtidos movimentos respiratórios que são suavizados pelo algoritmo de contornos ativos e, assim, permitem a geração de contornos para cada quadro pertencente a sequência e, portanto, de uma silhueta do pulmão para cada sequência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.