91 resultados para Processamento Digital de Imagem
em Instituto Politécnico do Porto, Portugal
Resumo:
Hoje em dia as fontes de alimentação possuem correção do fator de potência, devido às diversas normas regulamentares existentes, que introduziram grandes restrições no que respeita à distorção harmónica (THD) e fator de potência (FP). Este trabalho trata da análise, desenvolvimento e implementação de um Pré-Regulador de fator de potência com controlo digital. O controlo digital de conversores com recurso a processamento digital de sinal tem vindo a ser ao longo dos últimos anos, objeto de investigação e desenvolvimento, estando constantemente a surgirem modificações nas topologias existentes. Esta dissertação tem como objetivo estudar e implementar um Pré-Regulador Retificador Boost e o respetivo controlo digital. O controlo do conversor é feito através da técnica dos valores médios instantâneos da corrente de entrada, desenvolvido através da linguagem de descrição de hardware VHDL (VHSIC HDL – Very High Speed Integrated Circuit Hardware Description Language) e implementado num dispositivo FPGA (Field Programmable Gate Array) Spartan-3E. Neste trabalho são apresentadas análises matemáticas, para a obtenção das funções de transferência pertinentes ao projeto dos controladores. Para efetuar este controlo é necessário adquirir os sinais da corrente de entrada, tensão de entrada e tensão de saída. O sinal resultante do módulo de controlo é um sinal de PWM com valor de fator de ciclo variável ao longo do tempo. O projeto é simulado e validado através da plataforma MatLab/Simulink e PSIM, onde são apresentados resultados para o regime permanente e para transitórios da carga e da tensão de alimentação. Finalmente, o Pré-Regulador Retificador Boost controlado de forma digital é implementado em laboratório. Os resultados experimentais são apresentados para validar a metodologia e o projeto desenvolvidos.
Resumo:
Qualquer estrutura hoje em dia deve ser resistente, robusta e leve, o que aumentou o interesse industrial e investigação nas ligações adesivas, nomeadamente pela melhoria das propriedades de resistência e fratura dos materiais. Com esta técnica de união, o projeto de estruturas pode ser orientado para estruturas mais leves, não só em relação à economia direta de peso relativamente às juntas aparafusas ou soldadas, mas também por causa da flexibilidade para ligar materiais diferentes. Em qualquer área da indústria, a aplicação em larga escala de uma determinada técnica de ligação supõe que estão disponíveis ferramentas confiáveis para o projeto e previsão da rotura. Neste âmbito, Modelos de Dano Coesivo (MDC) são uma ferramenta essencial, embora seja necessário estimar as leis MDC do adesivo à tração e corte para entrada nos modelos numéricos. Este trabalho avalia o valor da tenacidade ao corte (GIIC) de juntas coladas para três adesivos com ductilidade distinta. O trabalho experimental consiste na caracterização à fratura ao corte da ligação adesiva por métodos convencionais e pelo Integral-J. Além disso, pelo integral-J, é possível definir a forma exata da lei coesiva. Para o integral-J, é utilizado um método de correlação de imagem digital anteriormente desenvolvido para a avaliação do deslocamento ao corte do adesivo na extremidade da fenda (δs) durante o ensaio, acoplado a uma sub-rotina em Matlab® para a extração automática de δs. É também apresentado um trabalho numérico para avaliar a adequabilidade de leis coesivas triangulares aproximadas em reproduzir as curvas força-deslocamento (P-δ) experimentais dos ensaios ENF. Também se apresenta uma análise de sensibilidade para compreender a influência dos parâmetros coesivos nas previsões numéricas. Como resultado deste trabalho, foram estimadas experimentalmente as leis coesivas de cada adesivo pelo método direto, e numericamente validadas, para posterior previsão de resistência em juntas adesivas. Em conjunto com a caraterização à tração destes adesivos, é possível a previsão da rotura em modo-misto.
Resumo:
An Electrocardiogram (ECG) monitoring system deals with several challenges related with noise sources. The main goal of this text was the study of Adaptive Signal Processing Algorithms for ECG noise reduction when applied to real signals. This document presents an adaptive ltering technique based on Least Mean Square (LMS) algorithm to remove the artefacts caused by electromyography (EMG) and power line noise into ECG signal. For this experiments it was used real noise signals, mainly to observe the di erence between real noise and simulated noise sources. It was obtained very good results due to the ability of noise removing that can be reached with this technique. A recolha de sinais electrocardiogr a cos (ECG) sofre de diversos problemas relacionados com ru dos. O objectivo deste trabalho foi o estudo de algoritmos adaptativos para processamento digital de sinal, para redu c~ao de ru do em sinais ECG reais. Este texto apresenta uma t ecnica de redu c~ao de ru do baseada no algoritmo Least Mean Square (LMS) para remo c~ao de ru dos causados quer pela actividade muscular (EMG) quer por ru dos causados pela rede de energia el ectrica. Para as experiencias foram utilizados ru dos reais, principalmente para aferir a diferen ca de performance do algoritmo entre os sinais reais e os simulados. Foram conseguidos bons resultados, essencialmente devido as excelentes caracter sticas que esta t ecnica tem para remover ru dos.
Resumo:
O projeto realizado teve como tema a aplicação das derivadas e integrais fraccionários para a implementação de filtros digitais numa perspetiva de processamento digital de sinais. Numa primeira fase do trabalho, é efetuado uma abordagem teórica sobre os filtros digitais e o cálculo fraccionário. Estes conceitos teóricos são utilizados posteriormente para o desenvolvimento do presente projeto. Numa segunda fase, é desenvolvida uma interface gráfica em ambiente MatLab, utilizando a ferramenta GUIDE. Esta interface gráfica tem como objetivo a implementação de filtros digitais fraccionários. Na terceira fase deste projeto são implementados os filtros desenvolvidos experimentalmente através do ADSP-2181, onde será possível analisar e comparar os resultados experimentais com os resultados obtidos por simulação no MatLab. Como quarta e última fase deste projeto é efetuado uma reflexão sobre todo o desenvolvimento da Tese e o que esta me proporcionou. Com este relatório pretendo apresentar todo o esforço aplicado na realização deste trabalho, bem como alguns dos conhecimentos adquiridos ao longo do curso.
Resumo:
Os motores de indução trifásicos são usados na maioria dos sistemas eletromecânicos, pelo que a sua manutenção reveste-se de enorme importância. A monitorização contínua dos equipamentos é o elemento chave dos atuais sistemas de manutenção condicionada. A análise espectral da corrente absorvida pelo motor está muito implantada na indústria, mas apresenta várias limitações. Diversos métodos de deteção e diagnóstico de avarias têm sido desenvolvidos, baseados nas múltiplas grandezas que caracterizam o funcionamento do motor. A análise no domínio das frequências, com recurso a técnicas de processamento digital de sinal, tem sido bastante explorada. Este artigo pretende focar-se nas principais causas e métodos de diagnóstico de avarias no estator e rotor dos motores de indução.
Resumo:
Nesta dissertação é apresentado um estudo dos sistemas de processamento automático de imagem em contexto de um problema relacionado com a individualização de neurónios em imagens da nematoda C. elegans durante estudos relacionados com a doença de Parkinson. Apresenta-se uma breve introdução à anatomia do verme, uma introdução à doença de Parkinson e uso do C. elegans em estudos relacionados e também é feita a análise de artigos em contexto de processamento de imagem para contextualizar a situação atual de soluções para o problema de extração de características e regiões específicas. Neste projeto é desenvolvida uma pipeline com o auxilio do software CellProfiler para procurar uma resposta para o problema em questão.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
PTDC/EME–TME/66207/2006 e POSC/EEA-SRI/55386/2004
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Doutor Freitas Santos
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
O cancro da mama é uma das patologias mais frequentes nas mulheres, à qual está associada uma elevada taxa de mortalidade. Sabe-se que à detecção, diagnóstico e tratamento precoce desta patologia, está associada uma elevada taxa de sobrevivência. Estas premissas tornam a detecção e o diagnóstico desta patologia, de importância central. A mamografia é o exame “gold standard” para o rastreio e diagnóstico do cancro da mama. Os sistemas convencionais de mamografia já demonstraram a sua mais valia na detecção de cancro da mama e de outras patologias mamárias, no entanto têm vindo a ser substituídos por sistemas digitais. A utilização da mamografia digital, aumentou a exactidão diagnóstica, especialmente em mulheres que apresentam elevada densidade do parenquima mamário. Apesar deste avanço, a natureza bidimensional da mamografia traduz-se numa imagem sobreposta dos tecidos da mama, o que dificulta, não raras vezes, a visualização de patologia, criando sérios obstáculos à sua detecção e diagnóstico. A tomossíntese mamária surge como uma técnica inovadora que, pela aquisição de dados tridimensionais, elimina ou reduz a sobreposição dos tecidos, disponibilizando informação mais detalhada e aumentando a sensibilidade e especificidade da mamografia. Esta técnica tem sido alvo de múltiplos estudos, contudo, o seu papel para uma possível integração na prática clínica não está, ainda, perfeitamente esclarecido. Este trabalho pretende dar a conhecer o “estado da arte” da Tomossíntese Mamária e toda a tecnologia que lhe está subjacente, os benefícios clínicos que da mesma podem advir e ainda os desafios inerentes à sua implementação na prática clínica. No desenvolvimento deste trabalho, utilizou-se uma metodologia científica baseada na revisão bibliográfica de conceitos inerentes à Tomossíntese mamária, através da selecção de artigos científicos e livros de referência na área em estudo, e ainda à exposição ilustrativa de casos que fundamentam o potencial desta técnica.
Resumo:
Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.
Resumo:
Prometeu, é uma peça de teatro multimédia inspirada no teatro de sombras indonésio, Wayang Kulit.O projecto Prometeu apresenta uma abordagem inovadora misturando a linguagem do teatro de sombras com a linguagem cinematográfica tendo a multimédia como elemento agregador. Um espectáculo de silhuetas/marionetas que promove o cruzamento entre o tradicional e a modernidade, o analógico e o digital, o performativo e o autómato, ou procedural. Uma visão ampla da tecnologia ao serviço da dramaturgia explorando a harmonia entre diferentes meios. Este projecto tem vindo a ser apresentado ao público, desde 2009, em locais e eventos distintos. Festivais de música, festivais de cinema, e festivais de teatro em Portugal e Espanha, são exemplos da abrangência deste espectáculo tendo sido já reconhecido com um prémio. Com o presente trabalho pretende-‐se demonstrar as competências profissionais a que Luís Leite se apresenta como candidato a especialista. Competências na área das artes da imagem, particularmente na área da multimédia. Luís Leite foi convidado pelo Teatro de Formas Animadas e pela Casa da Música para desenhar e desenvolver uma solução multimédia que respondesse aos complexos requisitos do projecto, bem como para a concepção e produção de conteúdos de animação e pós-produção digital. Competências importantes para as unidades curriculares de animação e multimédia que lecciona.
Resumo:
As novas tecnologias aplicadas ao processamento de imagem e reconhecimento de padrões têm sido alvo de um grande progresso nas últimas décadas. A sua aplicação é transversal a diversas áreas da ciência, nomeadamente a área da balística forense. O estudo de evidências (invólucros e projeteis) encontradas numa cena de crime, recorrendo a técnicas de processamento e análise de imagem, é pertinente pelo facto de, aquando do disparo, as armas de fogo imprimirem marcas únicas nos invólucros e projéteis deflagrados, permitindo relacionar evidências deflagradas pela mesma arma. A comparação manual de evidências encontradas numa cena de crime com evidências presentes numa base de dados, em termos de parâmetros visuais, constitui uma abordagem demorada. No âmbito deste trabalho pretendeu-se desenvolver técnicas automáticas de processamento e análise de imagens de evidências, obtidas através do microscópio ótico de comparação, tendo por base algoritmos computacionais. Estes foram desenvolvidos com recurso a pacotes de bibliotecas e a ferramentas open-source. Para a aquisição das imagens de evidências balísticas foram definidas quatro modalidades de aquisição: modalidade Planar, Multifocus, Microscan e Multiscan. As imagens obtidas foram aplicados algoritmos de processamento especialmente desenvolvidos para o efeito. A aplicação dos algoritmos de processamento permite a segmentação de imagem, a extração de características e o alinhamento de imagem. Este último tem como finalidade correlacionar as evidências e obter um valor quantitativo (métrica), indicando o quão similar essas evidências são. Com base no trabalho desenvolvido e nos resultados obtidos, foram definidos protocolos de aquisição de imagens de microscopia, que possibilitam a aquisição de imagens das regiões passiveis de serem estudadas, assim como algoritmos que permitem automatizar o posterior processo de alinhamento de imagens de evidências, constituindo uma vantagem em relação ao processo de comparação manual.