999 resultados para Dados LASER
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia e Gestão Industrial
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Doutor em Ciências da Comunicação
Resumo:
Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
A separação de dados hiperespectrais pretende determinar quais as substâncias presentes numa imagem e quais as suas concentrações em cada pixel. Esta comunicação apresenta um método não-supervisionado, denominado de Análise de Componentes Dependentes (DECA), que efectua a separação destes dados automaticamente. Este método assume que cada pixel é uma mistura linear das assinaturas (reflectâncias ou radiâncias) das substâncias presentes pesadas pelas respectivas concentrações (abundâncias). Estas abundâncias são modeladas por misturas de distribuições de Dirichlet, que por si garantem as restrições de não-negatividade e soma unitária impostas pelo processo de aquisição. A matriz de assinaturas é estimada por um algoritmo Esperança-Maximização generalizado (GEM). O método DECA tem um desempenho melhor que os métodos baseados em análise de componentes independentes e que os métodos baseados na geometria dos dados. Nesta comunicação apresentam-se resultados desta metodologia, com dados simulados (baseados em reflectâncias espectrais da base de dados do laboratório USGS) e com dados hiperespectrais reais adquiridos pelo sensor AVIRIS, ilustrando a potencialidade da técnica.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Microelectrónica e Nanotecnologia
Resumo:
Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.
Resumo:
A exploração do meio subaquático utilizando visão computacional é ainda um processo complexo. Geralmente são utilizados sistemas de visão baseados em visão stereo, no entanto, esta abordagem apresenta limitações, é pouco precisa e é exigente em termos computacionais quando o meio de operação é o subaquático. Estas limitações surgem principalmente em dois cenários de aplicação: quando existe escassez de iluminação e em operações junto a infraestruturas subaquáticas. Consequentemente, a solução reside na utilização de fontes de informação sensorial alternativas ou complementares ao sistema de visão computacional. Neste trabalho propõe-se o desenvolvimento de um sistema de percepção subaquático que combina uma câmara e um projetor laser de um feixe em linha, onde o projetor de luz estruturada _e utilizado como fonte de informação. Em qualquer sistema de visão computacional, e ainda mais relevante em sistemas baseados em triangulação, a sua correta calibração toma um papel fulcral para a qualidade das medidas obtidas com o sistema. A calibração do sistema de visão laser foi dividida em duas etapas. A primeira etapa diz respeito à calibração da câmara, onde são definidos os parâmetros intrínsecos e os parâmetros extrínsecos relativos a este sensor. A segunda etapa define a relação entre a câmara e o laser, sendo esta etapa necessária para a obtenção de imagens tridimensionais. Assim, um dos principais desafios desta dissertação passou por resolver o problema da calibração inerente a este sistema. Desse modo, foi desenvolvida uma ferramenta que requer, pelo menos duas fotos do padrão de xadrez, com perspectivas diferentes. O método proposto foi caracterizado e validado em ambientes secos e subaquáticos. Os resultados obtidos mostram que o sistema _e preciso e os valores de profundidade obtidos apresentam um erro significativamente baixo (inferiores a 1 mm), mesmo com uma base-line (distância entre a centro óptico da câmara e o plano de incidência do laser) reduzida.
Resumo:
Atualmente, as estratégias que as empresas optam por seguir para a maximização de recursos materiais e humanos, podem representar a diferença entre o sucesso e o fracasso. A seleção de fornecedores é um fator bastante crítico para o desempenho da empresa compradora, sendo por vezes necessária a resolução de problemas que apresentam um elevado grau de complexidade. A escolha dos métodos a ser utilizados e a eleição dos critérios mais relevantes foi feito com base no estudo de diversos autores e nas repostas obtidas a um inquérito online difundido por uma amostra de empresas portuguesas, criado especificamente para compreender quais os fatores que mais peso tinham nas decisões de escolha de parceiros. Além disso, os resultados adquiridos desta forma foram utilizados para conceder mais precisão às ponderações efetuadas na ferramenta de seleção, na escolha dos melhores fornecedores introduzidos pelos utilizadores da mesma. Muitos estudos literários propõem o uso de métodos para simplificar a tarefa de seleção de fornecedores. Esta dissertação aplica o estudo realizado nos métodos de seleção, nomeadamente o Simple Multi-Attribute Rating Technique (SMART) e Analytic Hierarchy Process (AHP), necessários para o desenvolvimento de uma ferramenta de software online que permitia, a qualquer empresa nacional, obter uma classificação para os seus fornecedores perante um conjunto de critérios e subcritérios.
Optimização da focagem de feixes laser em tecidos biológicos: desenvolvimento de um simulador óptico
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Biomédica
Resumo:
Dissertação de Mestrado em Conservação e Restauro - Metais
Resumo:
O presente trabalho visa apresentar a temática da otimização da produção de corte laser numa empresa do ramo da indústria metalomecânica, denominada Sermec Laser e situada no concelho da Maia no Distrito do Porto. Para alcançar este objetivo foi necessário conhecer o funcionamento atual do processo, como por exemplo, os seus intervenientes, as taxas de ocupação do equipamento de corte a laser e os procedimentos. Só depois de ser explorada essa vertente será possível desenvolver um plano com vista a melhorar esse processo. Este projeto espera criar um plano de melhoria que será testado e, quando for validado, será implementado. As melhorias propostas por este plano passam pelo aumento da eficiência do processo de corte a laser e a alteração de parte do layout da empresa de forma a facilitar e agilizar este mesmo processo. O objetivo final será acrescentar mais valor ao processo, reduzindo os seus desperdícios. Com esta melhoria a empresa ficará a ganhar, pois irá produzir de forma mais ajustada às suas necessidades.
Resumo:
Dissertação de Mestrado em Engenharia Informática
Resumo:
O presente documento de dissertação retrata o desenvolvimento do projeto PDS-Portal Institucional cujo cerne é um sistema para recolha, armazenamento e análise de dados (plataforma de Business Intelligence). Este portal está enquadrado na área da saúde e é uma peça fundamental no sistema da Plataforma de dados da Saúde, que é constituído por quatro portais distintos. Esta plataforma tem como base um sistema totalmente centrado no utente, que agrega dados de saúde dos utentes e distribui pelos diversos intervenientes: utente, profissionais de saúde nacionais e internacionais e organizações de saúde. O objetivo principal deste projeto é o desenvolvimento do PDS-Portal Institucional, recorrendo a uma plataforma de Business Intelligence, com o intuito de potenciar os utilizadores de uma ferramenta analítica para análise de dados. Estando a informação armazenada em dois dos portais da Plataforma de dados da Saúde (PDS-Portal Utente e PDS-Portal Profissional), é necessário modular um armazém de dados que agregue a informação de ambos e, através do PDS-PI, distribua um conjunto de análises ao utilizador final. Para tal este sistema comtempla um mecanismo totalmente automatizado para extração, tratamento e carregamento de dados para o armazém central, assim como uma plataforma de BI que disponibiliza os dados armazenados sobre a forma de análises específicas. Esta plataforma permite uma evolução constante e é extremamente flexível, pois fornece um mecanismo de gestão de utilizadores e perfis, assim como capacita o utilizador de um ambiente Web para análise de dados, permitindo a partilha e acesso a partir de dispositivos móveis. Após a implementação deste sistema foi possível explorar os dados e tirar diversas conclusões que são de extrema importância tanto para a evolução da PDS como para os métodos de praticar os cuidados de saúde em Portugal. Por fim são identificados alguns pontos de melhoria do sistema atual e delineada uma perspetiva de evolução futura. É certo que a partir do momento que este projeto seja lançado para produção, novas oportunidades surgirão e o contributo dos utilizadores será útil para evoluir o sistema progressivamente.