999 resultados para Processamento sísmico
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Biomédica
Resumo:
A análise forense de documentos é uma das áreas das Ciências Forenses, responsável pela verificação da autenticidade dos documentos. Os documentos podem ser de diferentes tipos, sendo a moeda ou escrita manual as evidências forenses que mais frequentemente motivam a análise. A associação de novas tecnologias a este processo de análise permite uma melhor avaliação dessas evidências, tornando o processo mais célere. Esta tese baseia-se na análise forense de dois tipos de documentos - notas de euro e formulários preenchidos por escrita manual. Neste trabalho pretendeu-se desenvolver técnicas de processamento e análise de imagens de evidências dos tipos referidos com vista a extração de medidas que permitam aferir da autenticidade dos mesmos. A aquisição das imagens das notas foi realizada por imagiologia espetral, tendo-se definidas quatro modalidades de aquisição: luz visível transmitida, luz visível refletida, ultravioleta A e ultravioleta C. Para cada uma destas modalidades de aquisição, foram também definidos 2 protocolos: frente e verso. A aquisição das imagens dos documentos escritos manualmente efetuou-se através da digitalização dos mesmos com recurso a um digitalizador automático de um aparelho multifunções. Para as imagens das notas desenvolveram-se vários algoritmos de processamento e análise de imagem, específicos para este tipo de evidências. Esses algoritmos permitem a segmentação da região de interesse da imagem, a segmentação das sub-regiões que contém as marcas de segurança a avaliar bem como da extração de algumas características. Relativamente as imagens dos documentos escritos manualmente, foram também desenvolvidos algoritmos de segmentação que permitem obter todas as sub-regiões de interesse dos formulários, de forma a serem analisados os vários elementos. Neste tipo de evidências, desenvolveu-se ainda um algoritmo de análise para os elementos correspondentes à escrita de uma sequência numérica o qual permite a obtenção das imagens correspondentes aos caracteres individuais. O trabalho desenvolvido e os resultados obtidos permitiram a definição de protocolos de aquisição de imagens destes tipos de evidências. Os algoritmos automáticos de segmentação e análise desenvolvidos ao longo deste trabalho podem ser auxiliares preciosos no processo de análise da autenticidade dos documentos, o qual, ate então, é feito manualmente. Apresentam-se ainda os resultados dos estudos feitos às diversas evidências, nomeadamente as performances dos diversos algoritmos analisados, bem como algumas das adversidades encontradas durante o processo. Apresenta-se também uma discussão da metodologia adotada e dos resultados, bem como de propostas de continuação deste trabalho, nomeadamente, a extração de características e a implementação de classificadores capazes aferir da autenticidade dos documentos.
Resumo:
Dissertação apresentada à Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para complementar os requerimentos para a obtenção do grau de Mestre em Engenharia Biomédica
Resumo:
Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.
Resumo:
Harnessing idle PCs CPU cycles, storage space and other resources of networked computers to collaborative are mainly fixated on for all major grid computing research projects. Most of the university computers labs are occupied with the high puissant desktop PC nowadays. It is plausible to notice that most of the time machines are lying idle or wasting their computing power without utilizing in felicitous ways. However, for intricate quandaries and for analyzing astronomically immense amounts of data, sizably voluminous computational resources are required. For such quandaries, one may run the analysis algorithms in very puissant and expensive computers, which reduces the number of users that can afford such data analysis tasks. Instead of utilizing single expensive machines, distributed computing systems, offers the possibility of utilizing a set of much less expensive machines to do the same task. BOINC and Condor projects have been prosperously utilized for solving authentic scientific research works around the world at a low cost. In this work the main goal is to explore both distributed computing to implement, Condor and BOINC, and utilize their potency to harness the ideal PCs resources for the academic researchers to utilize in their research work. In this thesis, Data mining tasks have been performed in implementation of several machine learning algorithms on the distributed computing environment.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
Dissertação para obtenção do Grau de Mestre em Energia e Bioenergia
Resumo:
Os parques de estacionamento cobertos estão obrigados por legislação a terem sistemas de desenfumagem. Assim, nesta dissertação desenvolve-se um procedimento computacional para a analise e verificação de funcionamento de sistemas de desenfumagem com ventiladores de impulso para parques de estacionamento, recorrendo ao software de mecânica dos fluidos computacional OpenFOAM. Actualmente nos sistemas de desenfumagem de parques de estacionamento estão a ser aplicados ventiladores de impulso. Este tipo de ventiladores não estão contemplados pela legislação em vigor. Assim, para serem utilizados é necessário verificar se estes podem substituir as redes de condutas. A verificação do funcionamento de sistemas de desenfumagem com ventiladores de impulso e efectuada com recurso a programas de simulação de mecânica dos fluidos computacional. O software OpenFOAM não tem tutoriais para ventiladores de impulso. Assim, foi executado um procedimento para validação dos ventiladores de impulso. A validação consistiu em reproduzir-se uma experiência executada por Giesen et al. (2011). Executaram-se várias simulações com diferentes modelos de turbulência, verificando-se que o programa buoyantpimplefoam do software OpenFOAM ao utilizar o modelo de turbulência k -ɛ simulou quase na perfeição os ventiladores de impulso. O desenvolvimento do procedimento computacional foi executado para um parque de estacionamento com uma geometria bastante complexa. O parque de estacionamento foi criado com um software em 3D e posteriormente inserido numa malha j a criada com as dimensões exteriores do parque. Foram estipuladas as condições de fronteira e executou-se uma simulação de seiscentos segundos com parâmetros determinados previamente. O processamento da simulação teve a duração de aproximadamente oito dias. Dos resultados obtidos concluiu-se que o procedimento computacional apresentado simula adequadamente sistemas de desenfumagem em parques de estacionamento.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Biotecnologia
Resumo:
Dissertação apresentada com vista à obtenção do grau de Mestre em Direito e Segurança
Resumo:
O projeto realizado teve como tema a aplicação das derivadas e integrais fraccionários para a implementação de filtros digitais numa perspetiva de processamento digital de sinais. Numa primeira fase do trabalho, é efetuado uma abordagem teórica sobre os filtros digitais e o cálculo fraccionário. Estes conceitos teóricos são utilizados posteriormente para o desenvolvimento do presente projeto. Numa segunda fase, é desenvolvida uma interface gráfica em ambiente MatLab, utilizando a ferramenta GUIDE. Esta interface gráfica tem como objetivo a implementação de filtros digitais fraccionários. Na terceira fase deste projeto são implementados os filtros desenvolvidos experimentalmente através do ADSP-2181, onde será possível analisar e comparar os resultados experimentais com os resultados obtidos por simulação no MatLab. Como quarta e última fase deste projeto é efetuado uma reflexão sobre todo o desenvolvimento da Tese e o que esta me proporcionou. Com este relatório pretendo apresentar todo o esforço aplicado na realização deste trabalho, bem como alguns dos conhecimentos adquiridos ao longo do curso.
Resumo:
Dissertação apresentada para a obtenção do Grau de Mestre em Genética Molecular e Biomedicina, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Dissertação de Mestrado em Engenharia Biomédica, realizada no Laboratório de Processamento de Imagens e Sinais da Universidade Federal do Rio de Janeiro, para obtenção do título de Mestre em Engenharia Biomédica na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa
Resumo:
A Nonius Software é uma empresa nacional de engenharia na área de telecomunicações, que se dedica ao desenvolvimento de soluções para a gestão de sistemas informáticos e de entretenimento, tendo como finalidade o mercado mundial hoteleiro e hospitalar. A solução de TV interactiva da Nonius oferece uma experiência única ao hóspede, ao disponibilizar várias opções de entretenimento e acesso a conteúdos de elevada qualidade e interesse. O hóspede tem acesso a canais de TV, aluguer de filmes, Internet, jogos, informações, promoções e compras na TV. O objectivo principal desta dissertação foi implementar alguns serviços de entretenimento numa televisão LG Pro: Centric. Este equipamento tem como principal vantagem o facto de conter a set-top-box inserida dentro da própria televisão. Em termos arquitectónicos, o sistema Nonius TV tem dois elementos fundamentais: o backend, responsável pelo processamento e tratamento da informação centralizada e o frontend instalado nos dispositivos com os quais o hóspede contacta directamente. Uma parte significativa do trabalho desenvolvido centrou-se na implementação de funcionalidades no backend. Foram, no entanto, também desenvolvidas algumas funcionalidades nos serviços de frontend. Para o cumprimento dos objectivos estabelecidos, foi utilizada a tecnologia FLASH, tendo como linguagem de programação a segunda versão do ActionScript. Relativamente ao desenvolvimento de backend são utilizados o PHP e o JavaScript.
Resumo:
Dissertação para obtenção do Grau de Mestre em Tecnologia e Segurança Alimentar – Especialização em Qualidade Alimentar