998 resultados para Processamento digital : Imagem
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, para obtenção do Grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia de Eletrónica e Computadores
Resumo:
Dissertação apresentada para a obtenção do Grau de Doutor em Ciência dos Materiais Especialidade de Materiais Compósitos pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Doutor Freitas Santos
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
O cancro da mama é uma das patologias mais frequentes nas mulheres, à qual está associada uma elevada taxa de mortalidade. Sabe-se que à detecção, diagnóstico e tratamento precoce desta patologia, está associada uma elevada taxa de sobrevivência. Estas premissas tornam a detecção e o diagnóstico desta patologia, de importância central. A mamografia é o exame “gold standard” para o rastreio e diagnóstico do cancro da mama. Os sistemas convencionais de mamografia já demonstraram a sua mais valia na detecção de cancro da mama e de outras patologias mamárias, no entanto têm vindo a ser substituídos por sistemas digitais. A utilização da mamografia digital, aumentou a exactidão diagnóstica, especialmente em mulheres que apresentam elevada densidade do parenquima mamário. Apesar deste avanço, a natureza bidimensional da mamografia traduz-se numa imagem sobreposta dos tecidos da mama, o que dificulta, não raras vezes, a visualização de patologia, criando sérios obstáculos à sua detecção e diagnóstico. A tomossíntese mamária surge como uma técnica inovadora que, pela aquisição de dados tridimensionais, elimina ou reduz a sobreposição dos tecidos, disponibilizando informação mais detalhada e aumentando a sensibilidade e especificidade da mamografia. Esta técnica tem sido alvo de múltiplos estudos, contudo, o seu papel para uma possível integração na prática clínica não está, ainda, perfeitamente esclarecido. Este trabalho pretende dar a conhecer o “estado da arte” da Tomossíntese Mamária e toda a tecnologia que lhe está subjacente, os benefícios clínicos que da mesma podem advir e ainda os desafios inerentes à sua implementação na prática clínica. No desenvolvimento deste trabalho, utilizou-se uma metodologia científica baseada na revisão bibliográfica de conceitos inerentes à Tomossíntese mamária, através da selecção de artigos científicos e livros de referência na área em estudo, e ainda à exposição ilustrativa de casos que fundamentam o potencial desta técnica.
Resumo:
Prometeu, é uma peça de teatro multimédia inspirada no teatro de sombras indonésio, Wayang Kulit.O projecto Prometeu apresenta uma abordagem inovadora misturando a linguagem do teatro de sombras com a linguagem cinematográfica tendo a multimédia como elemento agregador. Um espectáculo de silhuetas/marionetas que promove o cruzamento entre o tradicional e a modernidade, o analógico e o digital, o performativo e o autómato, ou procedural. Uma visão ampla da tecnologia ao serviço da dramaturgia explorando a harmonia entre diferentes meios. Este projecto tem vindo a ser apresentado ao público, desde 2009, em locais e eventos distintos. Festivais de música, festivais de cinema, e festivais de teatro em Portugal e Espanha, são exemplos da abrangência deste espectáculo tendo sido já reconhecido com um prémio. Com o presente trabalho pretende-‐se demonstrar as competências profissionais a que Luís Leite se apresenta como candidato a especialista. Competências na área das artes da imagem, particularmente na área da multimédia. Luís Leite foi convidado pelo Teatro de Formas Animadas e pela Casa da Música para desenhar e desenvolver uma solução multimédia que respondesse aos complexos requisitos do projecto, bem como para a concepção e produção de conteúdos de animação e pós-produção digital. Competências importantes para as unidades curriculares de animação e multimédia que lecciona.
Resumo:
Qualquer estrutura hoje em dia deve ser resistente, robusta e leve, o que aumentou o interesse industrial e investigação nas ligações adesivas, nomeadamente pela melhoria das propriedades de resistência e fratura dos materiais. Com esta técnica de união, o projeto de estruturas pode ser orientado para estruturas mais leves, não só em relação à economia direta de peso relativamente às juntas aparafusas ou soldadas, mas também por causa da flexibilidade para ligar materiais diferentes. Em qualquer área da indústria, a aplicação em larga escala de uma determinada técnica de ligação supõe que estão disponíveis ferramentas confiáveis para o projeto e previsão da rotura. Neste âmbito, Modelos de Dano Coesivo (MDC) são uma ferramenta essencial, embora seja necessário estimar as leis MDC do adesivo à tração e corte para entrada nos modelos numéricos. Este trabalho avalia o valor da tenacidade ao corte (GIIC) de juntas coladas para três adesivos com ductilidade distinta. O trabalho experimental consiste na caracterização à fratura ao corte da ligação adesiva por métodos convencionais e pelo Integral-J. Além disso, pelo integral-J, é possível definir a forma exata da lei coesiva. Para o integral-J, é utilizado um método de correlação de imagem digital anteriormente desenvolvido para a avaliação do deslocamento ao corte do adesivo na extremidade da fenda (δs) durante o ensaio, acoplado a uma sub-rotina em Matlab® para a extração automática de δs. É também apresentado um trabalho numérico para avaliar a adequabilidade de leis coesivas triangulares aproximadas em reproduzir as curvas força-deslocamento (P-δ) experimentais dos ensaios ENF. Também se apresenta uma análise de sensibilidade para compreender a influência dos parâmetros coesivos nas previsões numéricas. Como resultado deste trabalho, foram estimadas experimentalmente as leis coesivas de cada adesivo pelo método direto, e numericamente validadas, para posterior previsão de resistência em juntas adesivas. Em conjunto com a caraterização à tração destes adesivos, é possível a previsão da rotura em modo-misto.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e de Computadores
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação
Resumo:
O desenvolvimento das tecnologias associadas à Detecção Remota e aos Sistemas de Informação Geográfica encontram-se cada vez mais na ordem do dia. E, graças a este desenvolvimento de métodos para acelerar a produção de informação geográfica, assiste-se a um crescente aumento da resolução geométrica, espectral e radiométrica das imagens, e simultaneamente, ao aparecimento de novas aplicações com o intuito de facilitar o processamento e a análise de imagens através da melhoria de algoritmos para extracção de informação. Resultado disso são as imagens de alta resolução, provenientes do satélite WorldView 2 e o mais recente software Envi 5.0, utilizados neste estudo. O presente trabalho tem como principal objectivo desenvolver um projecto de cartografia de uso do solo para a cidade de Maputo, com recurso ao tratamento e à exploração de uma imagem de alta resolução, comparando as potencialidades e limitações dos resultados extraídos através da classificação “pixel a pixel”, através do algoritmo Máxima Verossimilhança, face às potencialidades e eventuais limitações da classificação orientada por objecto, através dos algoritmos K Nearest Neighbor (KNN) e Support Vector Machine (SVM), na extracção do mesmo número e tipo de classes de ocupação/uso do solo. Na classificação “pixel a pixel”, com a aplicação do algoritmo classificação Máxima Verosimilhança, foram ensaiados dois tipos de amostra: uma primeira constituída por 20 classes de ocupação/uso do solo, e uma segunda por 18 classes. Após a fase de experimentação, os resultados obtidos com a primeira amostra ficaram aquém das espectativas, pois observavam-se muitos erros de classificação. A segunda amostra formulada com base nestes erros de classificação e com o objectivo de os minimizar, permitiu obter um resultado próximo das espectativas idealizadas inicialmente, onde as classes de interesse coincidem com a realidade geográfica da cidade de Maputo. Na classificação orientada por objecto foram 4 as etapas metodológicas utilizadas: a atribuição do valor 5 para a segmentação e 90 para a fusão de segmentos; a selecção de 15 exemplos sobre os segmentos gerados para cada classe de interesse; bandas diferentemente distribuídas para o cálculo dos atributos espectrais e de textura; os atributos de forma Elongation e Form Factor e a aplicação dos algoritmos KNN e SVM. Confrontando as imagens resultantes das duas abordagens aplicadas, verificou-se que a qualidade do mapa produzido pela classificação “pixel a pixel” apresenta um nível de detalhe superior aos mapas resultantes da classificação orientada por objecto. Esta diferença de nível de detalhe é justificada pela unidade mínima do processamento de cada classificador: enquanto que na primeira abordagem a unidade mínima é o pixel, traduzinho uma maior detalhe, a segunda abordagem utiliza um conjunto de pixels, objecto, como unidade mínima despoletando situações de generalização. De um modo geral, a extracção da forma dos elementos e a distribuição das classes de interesse correspondem à realidade geográfica em si e, os resultados são bons face ao que é frequente em processamento semiautomático.
Resumo:
Devido ao crescente desenvolvimento das nanotecnologias, estando associadas a melhoria da eficiência energética assim como mais processamento de dados e a redução dos custos, esta dissertação possibilita todo o enquadramento com sistemas modernos ao nível do áudio digital. Tendo como base esta perspetiva, esta dissertação apresenta um sistema de áudio completo desde a fonte do sinal digital no PC até ao sinal analógico no altifalante. O sistema é constituído pelos seguintes módulos: a interface do utilizador no PC, o Processador Digital de Sinais (DSP), o amplificador digital e os altifalantes. O sistema é baseado na amplificação de classe D controlada por um modulador sigma delta (ΣΔM) digital. São abordadas as técnicas utilizadas e os cuidados a ter em conta em cada módulo, tendo como principal objetivo uma boa qualidade de áudio. Diferentes arquiteturas ΣΔM são primeiramente analisadas por simulações para validar a estabilidade e a funcionalidade, seguidamente são implementadas ao nível físico no protótipo para qualificar algumas medições elétricas e testes acústicos básicos. Depois de selecionados os ΣΔM mais promissores, o sistema foi avaliado pela análise de alguns testes elétricos de alto nível assim como gravações do sinal de áudio em um ambiente de estúdio controlado. Os resultados acústicos são comparados com um sistema de estúdio com reconhecimento no mercado. As medições finais do protótipo revelaram valores do rendimento de até 72%, a SNR na saída do amplificador digital de 73 dB através da leitura com o Audio Precision ATS-2, com uma THD de -75 dB e uma gama dinâmica (DR) de 75 dB. A tensão de alimentação pode ir dos 5 aos 12 Volt, utilizando uma metodologia H-bridge na saída do amplificador, e podendo ser aplicada uma carga mínima de 4 Ohm. O sistema desenvolvido demonstra-se promissor e possibilita melhorias através de otimização de cada elemento em particular, desde adicionar capacidades ao DSP através de novo firmware, ou melhorar a potência do amplificador digital consoante os requisitos da aplicação.
Resumo:
Fundação para a Ciência e a Tecnologia (FCT), Fundação Millennium bcp, Direcção Geral do Livro e das Bibliotecas/MC, Instituto de Estudos Medievais – FCSH/UNL
Resumo:
Este trabalho de investigação começou por ser estruturado em torno de quatro grandes capítulos (quatro grandes linhas de orientação temática), todos eles amplamente desenvolvidos no sentido de podermos cartografar alguns dos principais territórios e sintomas da arte contemporânea, sendo certo também, que cada um deles assenta precisamente nos princípios de uma estrutura maleável que, para todos os efeitos, se encontra em processo de construção (work in progress), neste caso, graças à plasticidade do corpo, do espaço, da imagem e do uso criativo das tecnologias digitais, no âmbito das quais, aliás, tudo se parece produzir, transformar e disseminar hoje em dia à nossa volta (quase como se de uma autêntica viagem interactiva se tratasse). Por isso, a partir daqui, todo o esforço que se segue procurará ensaiar uma hipótese de trabalho (desenvolver uma investigação) que, porventura, nos permita desbravar alguns caminhos em direcção aos intermináveis túneis do futuro, sempre na expectativa de podermos dar forma, função e sentido a um desejo irreprimível de liberdade criativa, pois, a arte contemporânea tem essa extraordinária capacidade de nos transportar para muitos outros lugares do mundo, tão reais e imaginários como a nossa própria vida. Assim sendo, há que sumariar algumas das principais etapas a desenvolver ao longo desta investigação. Ora, num primeiro momento, começaremos por reflectir sobre o conceito alargado de «crise» (a crise da modernidade), para logo de seguida podermos abordar a questão da crise das antigas categorias estéticas, questionando assim, para todos os efeitos, quer o conceito de «belo» (Platão) e de «gosto» (Kant), quer ainda o conceito de «forma» (Foccilon), não só no sentido de tentarmos compreender algumas das principais razões que terão estado na origem do chamado «fim da arte» (Hegel), mas também algumas daquelas que terão conduzido à estetização generalizada da experiência contemporânea e à sua respectiva disseminação pelas mais variadas plataformas digitais. Num segundo momento, procuraremos reflectir sobre alguns dos principais problemas da inquietante história das imagens, nomeadamente para tentarmos perceber como é que todas estas transformações técnicas (ligadas ao aparecimento da fotografia, do cinema, do vídeo, do computador e da internet) terão contribuído para o processo de instauração e respectivo alargamento daquilo que todos nós ficaríamos a conhecer como a nova «era da imagem», ou a imagem na «era da sua própria reprodutibilidade técnica» (Benjamin), pois, só assim é que conseguiremos interrogar este imparável processo de movimentação, fragmentação, disseminação, simulação e interacção das mais variadas «formas de vida» (Nietzsche, Agamben). Entretanto, chegados ao terceiro grande momento, interessa-nos percepcionar a arte contemporânea como uma espécie de plataforma interactiva que, por sua vez, nos levará a interpelar alguns dos principais dispositivos metafóricos e experimentais da viagem, neste caso, da viagem enquanto linha facilitadora de acesso à arte, à cultura e à vida contemporânea em geral, ou seja, todo um processo de reflexão que nos incitará a cartografar alguns dos mais atractivos sintomas provenientes da estética do flâneur (na perspectiva de Rimbaud, Baudelaire, Long e Benjamin) e, consequentemente, a convocar algumas das principais sensações decorrentes da experiência altamente sedutora daqueles que vivem mergulhados na órbita interactiva do ciberespaço (na condição de ciberflâneurs), quase como se o mundo inteiro, agora, fosse tão somente um espaço poético «inteiramente navegável» (Manovich). Por fim, no quarto e último momento, procuraremos fazer uma profunda reflexão sobre a inquietante história do corpo, principalmente com o objectivo de reforçar a ideia de que apesar das suas inúmeras fragilidades biológicas (um ser que adoece e morre), o corpo continua a ser uma das «categorias mais persistentes de toda a cultura ocidental» (Ieda Tucherman), não só porque ele resistiu a todas as transformações que lhe foram impostas historicamente, mas também porque ele se soube reinventar e readaptar pacientemente face a todas essas transformações históricas. Sinal evidente de que a sua plasticidade lhe iria conferir, principalmente a partir do século XX («o século do corpo») um estatuto teórico e performativo verdadeiramente especial. Tão especial, aliás, que basta termos uma noção, mesmo que breve, da sua inquietante história para percebermos imediatamente a extraordinária importância dalgumas das suas mais variadas transformações, atracções, ligações e exibições ao longo das últimas décadas, nomeadamente sob o efeito criativo das tecnologias digitais (no âmbito das quais se processam algumas das mais interessantes operações de dinamização cultural e artística do nosso tempo). Em suma, esperamos sinceramente que este trabalho de investigação possa vir a contribuir para o processo de alargamento das fronteiras cada vez mais incertas, dinâmicas e interactivas do conhecimento daquilo que parece constituir, hoje em dia, o jogo fundamental da nossa contemporaneidade.