1000 resultados para COMPLEJIDAD COMPUTACIONAL


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologias da Universidade Nova de Lisboa para obtenção do grau de Mestre em Matemática e Aplicações - Actuariado, Estatística e Investigação Operacional

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Provetes compostos por duas vigas de betão armado ligadas por rótula metálica na zona superior e por uma faixa compósita de CFRP colada na zona inferior foram ensaiados à flexão em quatro pontos, em programa dirigido à avaliação dos efeitos de envelhecimento acelerado, por ciclos de humidade e de nevoeiro salino, na aderência entre compósito e betão. Reportam-se resultados obtidos para vários patamares de carga até à rotura e para diferentes envelhecimentos. Um modelo computacional parametrizado foi desenvolvido para representar o comportamento dos provetes para características de resistência mecânica fixadas, ilustrando-se para o caso de provetes de referência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Eletrotécnica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese Mestrado Integrado em Engenharia Biomédica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho final de Mestrado para obtenção do grau de Mestre em Engenharia de Redes de Comunicação e Multimédia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sensores hiperespectrais que estão a ser desenvolvidos para aplicações em detecção remota, produzem uma elevada quantidade de dados. Tal quantidade de dados obriga a que as ferramentas de análise e processamento sejam eficientes e tenham baixa complexidade computacional. Uma tarefa importante na detecção remota é a determinação das substâncias presentes numa imagem hiperespectral e quais as suas concentrações. Neste contexto, Vertex component analysis (VCA), é um método não-supervisionado recentemente proposto que é eficiente e tem a complexidade computacional mais baixa de todos os métodos conhecidos. Este método baseia-se no facto de os vértices do simplex corresponderem às assinaturas dos elementos presentes nos dados. O VCA projecta os dados em direcções ortogonais ao subespaço gerado pelas assinaturas das substâncias já encontradas, correspondendo o extremo desta projecção à assinatura da nova substância encontrada. Nesta comunicação apresentam-se várias optimizações ao VCA nomeadamente: 1) a introdução de um método de inferência do sub-espaço de sinal que permite para além de reduzir a dimensionalidade dos dados, também permite estimar o número de substâncias presentes. 2) projeção dos dados é executada em várias direcções para garantir maior robustez em situações de baixa relação sinal-ruído. As potencialidades desta técnica são ilustradas num conjunto de experiências com dados simulados e reais, estes últimos adquiridos pela plataforma AVIRIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Civil, Perfil de Construção

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Civil – Ramo Estruturas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Geológica (Geotecnia)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como propósito a definição das características de um modelo prognóstico,utilizando uma rede neuronal, em doentes com patologia Cirúrgica, internados num serviço de Cirurgia Geral. Para esse fim obtive dados clínicos, operatórios, o resultado da intervenção e o tempo de internamento pós-operatório em doentes submetidos a um leque amplo de intervenções de Cirurgia abdominal. Construí um sistema computacional baseado em redes neuronais, utilizando os paradigmas considerados mais adequados para o tipo de variável a prever. Analisei em seguida o desempenho dos modelos obtidos. Construí um programa capaz de recolher os dados clínicos e apresentar o resultado da sua avaliação pelas redes neuronais criadas, sem envolver o seu utilizador nos aspectos técnicos da manipulação das redes neuronais. Para cumprimento desta estratégia procurei atingir os seguintes objectivos: Recolher dados de identificação, manifestações clínicas, tipo de doença(s), diagnósticos, características da intervenção cirúrgica e resultado, referentes a um conjunto de doentes suficiente para a construção de uma rede neuronal, com o número de variáveis empregue. Construir uma base de dados com os elementos de informação assim obtidos. Eliminar todos os casos em que se verificou faltar um elemento de informação. Criar dois grupos de casos, mutuamente exclusivos, para construção e validação das redes neuronais. Criar, com base nos elementos diagnósticos e resultado, 7 grupos não exclusivos, para avaliação das redes criadas. Avaliar estatisticamente as características dos grupos criados, para os comparar e caracterizar. Proceder à escolha de um programa para criação de redes neuronais em função da variedade de paradigmas oferecidos, facilidade de utilização, uso diversificado em diversos ambientes e mercados e a possibilidade de aceder às redes criadas, através de uma linguagem de programação de alto nível. Construir três tipos de redes diferentes. Cada tipo de rede utilizando um algoritmo diferente e adequado ao tipo de variável que se deseja prever. Avaliar as redes no que se refere à sua sensibilidade, especificidade, capacidade discriminativa e calibração. Criar um programa,usando a linguagem de programação "Delphi"©, para captura de dados, articulação dos mesmos com as redes neuronais criadas e expressão dos resultados prognósticos; esse programa permite alterar os valores dos elementos clínicos e verificar a repercussão dessa alteração no prognóstico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática, Área de Especialização em Tecnologias do Conhecimento e da Decisão

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A exploração do meio subaquático utilizando visão computacional é ainda um processo complexo. Geralmente são utilizados sistemas de visão baseados em visão stereo, no entanto, esta abordagem apresenta limitações, é pouco precisa e é exigente em termos computacionais quando o meio de operação é o subaquático. Estas limitações surgem principalmente em dois cenários de aplicação: quando existe escassez de iluminação e em operações junto a infraestruturas subaquáticas. Consequentemente, a solução reside na utilização de fontes de informação sensorial alternativas ou complementares ao sistema de visão computacional. Neste trabalho propõe-se o desenvolvimento de um sistema de percepção subaquático que combina uma câmara e um projetor laser de um feixe em linha, onde o projetor de luz estruturada _e utilizado como fonte de informação. Em qualquer sistema de visão computacional, e ainda mais relevante em sistemas baseados em triangulação, a sua correta calibração toma um papel fulcral para a qualidade das medidas obtidas com o sistema. A calibração do sistema de visão laser foi dividida em duas etapas. A primeira etapa diz respeito à calibração da câmara, onde são definidos os parâmetros intrínsecos e os parâmetros extrínsecos relativos a este sensor. A segunda etapa define a relação entre a câmara e o laser, sendo esta etapa necessária para a obtenção de imagens tridimensionais. Assim, um dos principais desafios desta dissertação passou por resolver o problema da calibração inerente a este sistema. Desse modo, foi desenvolvida uma ferramenta que requer, pelo menos duas fotos do padrão de xadrez, com perspectivas diferentes. O método proposto foi caracterizado e validado em ambientes secos e subaquáticos. Os resultados obtidos mostram que o sistema _e preciso e os valores de profundidade obtidos apresentam um erro significativamente baixo (inferiores a 1 mm), mesmo com uma base-line (distância entre a centro óptico da câmara e o plano de incidência do laser) reduzida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A antropologia forense é uma disciplina das ciências forenses que trata da análise de restos cadavéricos humanos para fins legais. Uma das suas aplicações mais populares é a identificação forense que consiste em determinar o perfil biológico (idade, sexo, ancestralidade e estatura) de um indivíduo. No entanto, este processo muitas vezes é dificultado quando o corpo se encontra em avançado estado de decomposição apenas existindo restos esqueléticos. Neste caso, áreas médicas comummente utilizadas na identificação de cadáveres, como a patologia, tem de ser descartadas e surge a necessidade de aplicar outras técnicas. Neste contexto, muitos métodos antropométricos são propostos de forma a caracterizar uma pessoa através do seu esqueleto. Contudo, constata-se que a maioria dos procedimentos sugeridos é baseada em equipamentos básicos de medição, não usufruindo da tecnologia contemporânea. Assim, em parceria com a Delegação Norte do NMLCF, I. P., esta Tese teve na sua génese a criação de um sistema computacional baseado em imagens de Tomografia Computorizada (TC) de ossadas que, através de ferramentas open source, permita a realização de identificação forense. O trabalho apresentado baseia-se no processo de gestão de informação, aquisição, processamento e visualização de imagens TC. No decorrer da realização da presente Tese foi desenvolvida uma base de dados que permite organizar a informação de cada ossada e foram implementados algoritmos que levam a uma extracção de características muito mais vasta que a efetuada manualmente com os equipamentos de medição clássicos. O resultado final deste estudo consistiu num conjunto de técnicas que poderão ser englobadas num sistema computacional de identificação forense e deste modo criar uma aplicação com vantagens tecnológicas evidentes.