998 resultados para Processamento Digital de Imagem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O cancro da mama é uma das patologias mais frequentes nas mulheres, à qual está associada uma elevada taxa de mortalidade. Sabe-se que à detecção, diagnóstico e tratamento precoce desta patologia, está associada uma elevada taxa de sobrevivência. Estas premissas tornam a detecção e o diagnóstico desta patologia, de importância central. A mamografia é o exame “gold standard” para o rastreio e diagnóstico do cancro da mama. Os sistemas convencionais de mamografia já demonstraram a sua mais valia na detecção de cancro da mama e de outras patologias mamárias, no entanto têm vindo a ser substituídos por sistemas digitais. A utilização da mamografia digital, aumentou a exactidão diagnóstica, especialmente em mulheres que apresentam elevada densidade do parenquima mamário. Apesar deste avanço, a natureza bidimensional da mamografia traduz-se numa imagem sobreposta dos tecidos da mama, o que dificulta, não raras vezes, a visualização de patologia, criando sérios obstáculos à sua detecção e diagnóstico. A tomossíntese mamária surge como uma técnica inovadora que, pela aquisição de dados tridimensionais, elimina ou reduz a sobreposição dos tecidos, disponibilizando informação mais detalhada e aumentando a sensibilidade e especificidade da mamografia. Esta técnica tem sido alvo de múltiplos estudos, contudo, o seu papel para uma possível integração na prática clínica não está, ainda, perfeitamente esclarecido. Este trabalho pretende dar a conhecer o “estado da arte” da Tomossíntese Mamária e toda a tecnologia que lhe está subjacente, os benefícios clínicos que da mesma podem advir e ainda os desafios inerentes à sua implementação na prática clínica. No desenvolvimento deste trabalho, utilizou-se uma metodologia científica baseada na revisão bibliográfica de conceitos inerentes à Tomossíntese mamária, através da selecção de artigos científicos e livros de referência na área em estudo, e ainda à exposição ilustrativa de casos que fundamentam o potencial desta técnica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prometeu, é uma peça de teatro multimédia inspirada no teatro de sombras indonésio, Wayang Kulit.O projecto Prometeu apresenta uma abordagem inovadora misturando a linguagem do teatro de sombras com a linguagem cinematográfica tendo a multimédia como elemento agregador. Um espectáculo de silhuetas/marionetas que promove o cruzamento entre o tradicional e a modernidade, o analógico e o digital, o performativo e o autómato, ou procedural. Uma visão ampla da tecnologia ao serviço da dramaturgia explorando a harmonia entre diferentes meios. Este projecto tem vindo a ser apresentado ao público, desde 2009, em locais e eventos distintos. Festivais de música, festivais de cinema, e festivais de teatro em Portugal e Espanha, são exemplos da abrangência deste espectáculo tendo sido já reconhecido com um prémio. Com o presente trabalho pretende-­‐se demonstrar as competências profissionais a que Luís Leite se apresenta como candidato a especialista. Competências na área das artes da imagem, particularmente na área da multimédia. Luís Leite foi convidado pelo Teatro de Formas Animadas e pela Casa da Música para desenhar e desenvolver uma solução multimédia que respondesse aos complexos requisitos do projecto, bem como para a concepção e produção de conteúdos de animação e pós-produção digital. Competências importantes para as unidades curriculares de animação e multimédia que lecciona.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara dedeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara dedeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido ao crescente desenvolvimento das nanotecnologias, estando associadas a melhoria da eficiência energética assim como mais processamento de dados e a redução dos custos, esta dissertação possibilita todo o enquadramento com sistemas modernos ao nível do áudio digital. Tendo como base esta perspetiva, esta dissertação apresenta um sistema de áudio completo desde a fonte do sinal digital no PC até ao sinal analógico no altifalante. O sistema é constituído pelos seguintes módulos: a interface do utilizador no PC, o Processador Digital de Sinais (DSP), o amplificador digital e os altifalantes. O sistema é baseado na amplificação de classe D controlada por um modulador sigma delta (ΣΔM) digital. São abordadas as técnicas utilizadas e os cuidados a ter em conta em cada módulo, tendo como principal objetivo uma boa qualidade de áudio. Diferentes arquiteturas ΣΔM são primeiramente analisadas por simulações para validar a estabilidade e a funcionalidade, seguidamente são implementadas ao nível físico no protótipo para qualificar algumas medições elétricas e testes acústicos básicos. Depois de selecionados os ΣΔM mais promissores, o sistema foi avaliado pela análise de alguns testes elétricos de alto nível assim como gravações do sinal de áudio em um ambiente de estúdio controlado. Os resultados acústicos são comparados com um sistema de estúdio com reconhecimento no mercado. As medições finais do protótipo revelaram valores do rendimento de até 72%, a SNR na saída do amplificador digital de 73 dB através da leitura com o Audio Precision ATS-2, com uma THD de -75 dB e uma gama dinâmica (DR) de 75 dB. A tensão de alimentação pode ir dos 5 aos 12 Volt, utilizando uma metodologia H-bridge na saída do amplificador, e podendo ser aplicada uma carga mínima de 4 Ohm. O sistema desenvolvido demonstra-se promissor e possibilita melhorias através de otimização de cada elemento em particular, desde adicionar capacidades ao DSP através de novo firmware, ou melhorar a potência do amplificador digital consoante os requisitos da aplicação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tendo como caso de estudo um conjunto documental do Arquivo Histórico dos Museus da Universidade de Lisboa (AHMUL) – Museu Nacional de História Natural e da Ciência (MUHNAC), anteriormente fazendo parte do antigo Arquivo Histórico do Museu Bocage – fortemente atingido por um incêndio em 1978, o objectivo principal desta investigação é dar início à pesquisa e explorar a possibilidade de aplicação de métodos não invasivos de restauro digital, como a técnica de digitalização volumétrica (volumetric scanning), para a recuperação da informação escrita na parte mais deteriorada do arquivo; e propor métodos de estabilização/recuperação do seu suporte físico, usando técnicas tradicionais de conservação e restauro. Assim, o objectivo deste estudo não é apenas rever métodos de recuperação da informação para estes documentos tidos como perdidos, mas também propor uma forma de recuperar, tanto quanto possível, o seu suporte original. Será realizada a caracterização material da colecção, com recurso a métodos de exame e análise e o diagnóstico de conservação da parte da colecção mais deteriorada, bem como uma contextualização histórica sobre o arquivo e as condições do incêndio. Como conclusões principais salienta-se a confirmação da possibilidade de aplicação de técnicas de digitalização, os resultados promissores de outras técnicas como a fotografia de infravermelho com recurso adicional a software de processamento da imagem e o uso da imagem multiespectral em documentos carbonizados, além do estabelecimento de uma proposta de protocolo de intervenção para documentos queimados, com recurso a dois éteres de celulose, com diferentes solventes (água e etanol) de acordo com a solubilidade dos meios de escrita. Pretendeu-se ainda com este estudo contribuir para a divulgação da existência deste fundo do AHMUL em específico, tendo sido fundamental a realização, após 37 anos, do primeiro registo e compilação de fontes documentais sobre o incêndio de 18 de março de 1978, um facto tão relevante para a Memória do MUHNAC e dos Museus de Portugal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fundação para a Ciência e a Tecnologia (FCT), Fundação Millennium bcp, Direcção Geral do Livro e das Bibliotecas/MC, Instituto de Estudos Medievais – FCSH/UNL