18 resultados para análise de imagem

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

PTDC/EME–TME/66207/2006 e POSC/EEA-SRI/55386/2004

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A marcha assegura uma progressão do corpo, compatível com o equilíbrio dinâmico e adaptada a potenciais factores destabilizadores, de um ponto de vista antecipatório, através de sinergias coordenadas entre os MSs, o tronco e os MIs. O tronco inferior tem um papel preponderante na marcha, sobretudo na estabilização necessária durante a fase de apoio. Esta actividade implica mobilidade pélvica e alongamento activo dos abdominais para conseguir a relação comprimento-tensão muscular óptima entre quadricípite e isquiotibiais, permitindo uma correcta sequência, timing e amplitude de activação. Nas crianças com alterações neuromotoras existem alterações no controlo do movimento e na estrutura do próprio movimento, alterando todo este processo. Como tal, este estudo tem como principal objectivo determinar a influência da actividade do tronco inferior na activação muscular proximal durante a fase de apoio da marcha, em crianças com quadro motor de diplegia, caracterizada por uma dificuldade na relação entre os membros e entre estes e o tronco. Para responder a este objectivo realizou-se um estudo de série de casos, com 2 crianças com quadro motor de diplegia. Efectuou-se EMG dos músculos abdominais, quadricípite e isquiotibiais e análise de imagem (para amplitude da CF) durante a marcha, em ambos os membros e em dois momentos de avaliação, separados por 2 meses, nos quais se realizou um protocolo de intervenção terapêutica adequado a cada caso. Os resultados indicam que a variação de amplitude da CF desde a fase de ataque ao solo à fase média de apoio é aproximadamente igual em M0e M1; concretamente, a amplitude inicial é inferior à de referência (pouca flexão) (melhor em M0) e a amplitude final é superior à de referência (pouca extensão) (melhor em M1). Estes resultados são idênticos em ambos os casos. Na EMG verificou-se uma actividade mais global e sincronizada de todos os músculos, mantendo-se aproximadamente a mesma percentagem de activação em M1, sobretudo no caso 1. No caso 2 verificou-se uma maior eficiência na variação da percentagem de activação dos abdominais, em M1, e dos isquiotibiais, à direita. Em conclusão, pode dizer-se que, em crianças com alterações neuromotoras (quadro motor de diplegia), uma actividade mais eficiente e sincronizada no tempo do tronco inferior, nomeadamente dos abdominais, contribui para uma maior capacidade de extensão da CF, durante a fase de apoio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O calibre da artéria aorta torácica é avaliado em situações de suspeita de patologia ou em pacientes com pre-disposição para desenvolverem doenças vasculares. A medição das suas dimensões, em duas direcções diametralmente opostas e, assim, fulcral na avaliação desta estrutura. Para tal, o exame de primeira linha definido é a Angiografia por Tomografia Computorizada (Angio-TC), injectando-se um produto de contraste na veia radial que irá opacificar os vasos, permitindo a sua distinção das estruturas adjacentes. O presente trabalho, inserido na disciplina de Dissertação/ Projecto/ Estágio Profissional do Mestrado em Engenharia de Computação e Instrumentação Médica e com a cooperação da empresa Efficientia, foi sugerido pela equipa de Angio-TC do Centro Hospitalar de Vila Nova de Gaia (CHVNG) e tem por objectivo o desenvolvimento de uma aplicação para a medição e registo automático do diâmetro da aorta torácica em nove pontos anatómicos pre-definidos em imagens de Tomografia Computorizada (TC). A aplicação foi desenvolvida no ambiente integrado de processamento e análise de imagem, Fiji, sendo a metodologia composta pelas etapas de segmentação, desenho da linha central, determinação dos planos de cortes, segmentação e medição da aorta nos planos de corte. Os resultados obtidos pela metodologia proposta são concordantes com os obtidos por especialistas para o conjunto de teste utilizado neste trabalho.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Na furação de placas em materiais compósitos é corrente o uso de técnicas tradicionais de furação adaptadas. O defeito mais grave é a delaminação, que nem sempre é visível à superfície e pode causar o colapso prematuro das estruturas. Para a avaliação dos danos provocados nas peças utilizam-se meios de controlo não-destrutivo. Neste artigo são analisados os resultados obtidos através do recurso à pré-furação em placas carbono/epóxido e de duas técnicas de controlo. Os resultados obtidos permitem estabelecer a influência da pré-furação na delaminação Neste trabalho, utilizam-se técnicas de Visão Computacional no processamento e análise das imagens obtidas nos ensaios experimentais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As características excepcionais dos materiais compósitos de matriz polimérica têm conduzido à sua crescente utilização em todos os domínios. A necessidade de ligar estas peças entre si obriga à realização frequente de operações de furação que, embora devidamente adaptada, pode provocar diferentes tipos de dano nas peças a ligar. Desses, o dano mais grave é a delaminação pelas suas consequências na perda das propriedades mecânicas. Neste trabalho é apresentado um estudo comparativo da extensão do dano em função da geometria de ferramenta utilizada. Para tal as placas foram radiografadas após furação e a imagem resultante segmentada para medição das áreas associadas. Os resultados mostram a importância de uma adequada geometria de ferramenta na redução do dano causado pela furação em compósitos laminados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A distinção entre miocárdio atordoado e danificado tem sido uma preocupação relevante, no cenário de um enfarte agudo do miocárdio (EAM). A avaliação da viabilidade do miocárdio, pós-enfarte, é de importância vital, no contexto clínico, principalmente numa fase inicial. Actualmente a Ressonância Magnética Cardíaca é o exame de referência para a avaliação de viabilidade do miocárdio. No entanto, é um exame com elevado custo e de difícil acesso. Estudos preliminares demonstraram potencial na utilização de imagens por Tomografia Computorizada para avaliação da área de enfarte, quer em estudos animais quer em humanos. É objectivo desta tese verificar a utilidade de um protocolo de avaliação de viabilidade do miocárdio, com base em imagens de realce tardio (RT) por Tomografia Computorizada, após um procedimento de intervenção coronária percutânea, no contexto de enfarte agudo do miocárdio com elevação do segmento ST (STEMI). Pretende-se igualmente contribuir para a análise da imagem médica do miocárdio, proporcionando métodos de quantificação do RT e software de suporte à decisão médica nesta modalidade de imagem substancialmente recente. São avaliados vários processos para a quantificação do volume de RT, incluindo um método inovador baseado na detecção automática do miocárdio normal. _E ainda proposto um algoritmo para detecção automática do grau de transmuralidade, por segmento do miocárdio, e comparado o seu grau de eficiência face ao diagnóstico médico dos mesmos exames. Apesar do reduzido número de exames utilizado para validação das técnicas descritas nesta tese, os resultados são bastante promissores e podem constituir uma mais-valia no auxilio à gestão do paciente com EAM.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O controlo da qualidade em ressonância magnética (RM) passa pela realização de diversos testes ao equipamento e calibrações diárias, onde os fantomas desempenham um papel fundamental. Este trabalho teve como objetivo principal o desenvolvimento de um fantoma cerebral para um sistema de RM de intensidade 3.0 Tesla. Com base na literatura existente, escolheram-se como reagentes o cloreto de gadolínio (III) (GdCl3), a agarose, e o gelificante carragena, tendo sido ainda acrescentado o conservante químico azida de sódio (NaN3) de forma a inibir a degradação da solução. Realizaram-se vários testes com diferentes concentrações dos materiais selecionados até obter as misturas adequadas a suscetibilidade magnética das substâncias branca e cinzenta cerebrais. Os tempos de relaxação T1 das diversas substâncias desenvolvidas foram medidos, apresentando o fantoma final uns tempos de T1 de 702±10 ms, quando a concentração de GdCl3 foi de 100 µmol (substância branca) e 1179±23 ms quando a concentração foi de 15 µmol (substância cinzenta). Os valores de T1 do fantoma foram comparados estatisticamente com os tempos de relaxação conseguidos a partir de um cérebro humano, obtendo-se uma correlação de 0.867 com significância estatística. No intuito de demonstrar a aplicabilidade do fantoma, este foi sujeito a um protocolo de RM, do qual constaram as sequências habitualmente usadas no estudo cerebral. Como principais resultados constatou-se que, nas sequências ponderadas em T1, o fantoma apresenta uma forte associação positiva (rs > 0.700 p = 0.072) com o cérebro de referência, ainda que não sejam estatisticamente significativos. As sequências ponderadas em T2 demonstraram uma correlação positiva moderada e fraca, sendo a ponderação densidade protónica a única a apresentar uma associação negativa. Desta forma, o fantoma revelou-se um ótimo substituto do cérebro humano. Este trabalho culminou na criação de um modelo cerebral tridimensional onde foram individualizadas as regiões das substâncias branca e cinzenta, de forma a posteriormente serem preenchidas pelas correspondentes substâncias desenvolvidas, obtendo-se um fantoma cerebral antropomórfico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nos últimos anos, a utilização dos materiais compósitos tem vindo a tornar-se cada vez mais comum em várias indústrias, onde se verifica uma ascensão na procura pelos mesmos. Características como o baixo peso aliado à sua alta resistência e rigidez permitem que estes materiais possuam diversas aplicações em variadas áreas, desde a medicina, aeronáutica, indústria automóvel e aeroespacial, até à indústria eletrónica. Hoje em dia, o uso de desperdícios sólidos de borracha e fibras naturais na produção de materiais compósitos é, mais que uma opção, uma necessidade ambiental. De forma a reduzir as enormes quantidades de desperdícios, foi criado um material compósito constituído por uma resina termoendurecível reforçada com esses dois tipos de desperdícios. Parâmetros de fabrico como a percentagem de borracha, o tamanho das partículas de borracha, a percentagem de fibras de cana-de-açúcar e o comprimento dessas fibras foram variados, com o objetivo de estudar a influência destes dois materiais nas propriedades mecânicas do compósito. Apesar da maior parte dos compósitos serem fabricados na forma de uma peça funcional quase pronta a ser utilizada, por vezes é necessário recorrer à maquinação de furos. Apesar das muitas técnicas de furação existentes, os defeitos resultantes deste processo aplicado aos materiais compósitos são ainda muito comuns. Desses defeitos o que mais se destaca é sem dúvida a delaminação. Trinta e seis provetes de epóxido reforçado com borracha e fibra de cana-de-açúcar foram fabricados e furados, de modo a possibilitar o estudo das propriedades mecânicas do material compósito, assim como a análise da zona danificada durante a furação. Diferentes condições de furação, como tipos de broca e velocidades de avanço diferentes, foram impostas aos provetes de forma a variar o mais possível a zona de dano de uns furos para os outros. Parâmetros como a área de dano ou ainda o fator de delaminação provam ser muito úteis na caracterização e quantificação do dano na zona periférica de um furo. Recorrendo a técnicas de processamento de imagem foi possível obter esses parâmetros. O processamento e análise de imagem pode ser feito através de vários métodos. O método utilizado neste trabalho foi o software MATLAB® associado a ferramentas de processamento de imagem. Depois de feita a análise dos furos foram realizados ensaios de esmagamento a todos os provetes. Este passo permitiu assim avaliar de que forma os parâmetros de furação influenciam a resistência mecânica do material, e se a avaliação realizada aos furos é um método viável para a avaliação da extensão de dano nesses furos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A instalação de sistemas de videovigilância, no interior ou exterior, em locais como aeroportos, centros comerciais, escritórios, edifícios estatais, bases militares ou casas privadas tem o intuito de auxiliar na tarefa de monitorização do local contra eventuais intrusos. Com estes sistemas é possível realizar a detecção e o seguimento das pessoas que se encontram no ambiente local, tornando a monitorização mais eficiente. Neste contexto, as imagens típicas (imagem natural e imagem infravermelha) são utilizadas para extrair informação dos objectos detectados e que irão ser seguidos. Contudo, as imagens convencionais são afectadas por condições ambientais adversas como o nível de luminosidade existente no local (luzes muito fortes ou escuridão total), a presença de chuva, de nevoeiro ou de fumo que dificultam a tarefa de monitorização das pessoas. Deste modo, tornou‐se necessário realizar estudos e apresentar soluções que aumentem a eficácia dos sistemas de videovigilância quando sujeitos a condições ambientais adversas, ou seja, em ambientes não controlados, sendo uma das soluções a utilização de imagens termográficas nos sistemas de videovigilância. Neste documento são apresentadas algumas das características das câmaras e imagens termográficas, assim como uma caracterização de cenários de vigilância. Em seguida, são apresentados resultados provenientes de um algoritmo que permite realizar a segmentação de pessoas utilizando imagens termográficas. O maior foco desta dissertação foi na análise dos modelos de descrição (Histograma de Cor, HOG, SIFT, SURF) para determinar o desempenho dos modelos em três casos: distinguir entre uma pessoa e um carro; distinguir entre duas pessoas distintas e determinar que é a mesma pessoa ao longo de uma sequência. De uma forma sucinta pretendeu‐se, com este estudo, contribuir para uma melhoria dos algoritmos de detecção e seguimento de objectos em sequências dedeo de imagens termográficas. No final, através de uma análise dos resultados provenientes dos modelos de descrição, serão retiradas conclusões que servirão de indicação sobre qual o modelo que melhor permite discriminar entre objectos nas imagens termográficas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os Transformadores de potência são máquinas de elevada importância ao nível dos Sistemas Elétricos de Energia (SEE) uma vez que são estas máquinas que possibilitam a interligação dos diferentes níveis de tensão da rede e a transmissão de energia elétrica em Corrente Alternada (CA). Geralmente, estas máquinas são de grandes dimensões e de elevado nível de complexidade construtiva. Caracterizam-se por possuírem períodos de vida útil bastante elevados (vinte a trinta anos) e preços elevados, o que conduz a um nível de exigência de fiabilidade muito elevada, uma vez que não e viável a existência de muitos equipamentos de reserva nos SEE. Com o objetivo de tentar maximizar o período de vida útil dos transformadores de potência e a sua fiabilidade, tenta-se, cada vez mais, implementar conceitos de manutenção preventiva a este tipo de máquinas. No entanto, a gestão da sua vida útil e extremamente complexa na medida em que, estas máquinas têm vários componentes cruciais e suscetiveis de originar falhas e, quase todos eles, encontram-se no interior de uma cuba. Desta forma, não e possível obter uma imagem do seu estado, em tempo real, sem colocar o transformador fora de serviço, algo que acarreta custos elevados. Por este motivo, desenvolveu-se uma técnica que permite obter uma indicação do estado do transformador, em tempo real, sem o retirar de serviço, colhendo amostras do óleo isolante e procedendo a sua análise físico-química e Analise Gases Dissolvidos (DGA). As análises aos óleos isolantes tem vindo a adquirir uma preponderância muito elevada no diagnóstico de falhas e na analise do estado de conservação destes equipamentos tendo-se desenvolvido regras para interpretação dos parâmetros dos óleos com carácter normativo. Considerando o conhecimento relativo a interpretação dos ensaios físico-químicos e DGA ao oleol, e possível desenvolver ferramentas capazes de otimizar essas mesmas interpretações e aplicar esse conhecimento no sentido de prever a sua evolução, assim como o surgimento de possíveis falhas em transformadores, para assim otimizar os processos de manutenção. Neste campo as Redes Neuronais Artificiais (RNAs) têm um papel fundamental