1000 resultados para Algoritmos computacionais
Resumo:
A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.
Resumo:
No decorrer dos últimos anos tem-se verificado um acréscimo do número de sistemas de videovigilância presentes nos mais diversos ambientes, sendo que estes se encontram cada vez mais sofisticados. Os casinos são um exemplo bastante popular da utilização destes sistemas sofisticados, sendo que vários casinos, hoje em dia, utilizam câmeras para controlo automático das suas operações de jogo. No entanto, atualmente existem vários tipos de jogos em que o controlo automático ainda não se encontra disponível, sendo um destes, o jogo Banca Francesa. A presente dissertação tem como objetivo propor um conjunto de algoritmos idealizados para um sistema de controlo e gestão do jogo de casino Banca Francesa através do auxílio de componentes pertencentes à área da computação visual, tendo em conta os contributos mais relevantes e existentes na área, elaborados por investigadores e entidades relacionadas. No decorrer desta dissertação são apresentados quatro módulos distintos, os quais têm como objetivo auxiliar os casinos a prevenir o acontecimento de fraudes durante o decorrer das suas operações, assim como auxiliar na recolha automática de resultados de jogo. Os quatro módulos apresentados são os seguintes: Dice Sample Generator – Módulo proposto para criação de casos de teste em grande escala; Dice Sample Analyzer – Módulo proposto para a deteção de resultados de jogo; Dice Calibration – Módulo proposto para calibração automática do sistema; Motion Detection – Módulo proposto para a deteção de fraude no jogo. Por fim, para cada um dos módulos, é apresentado um conjunto de testes e análises de modo a verificar se é possível provar o conceito para cada uma das propostas apresentadas.
Resumo:
O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Engenharia Electrotécnica, especialidade de Telecomunicações, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
Os consumidores finais são vistos, no novo paradigma da operação das redes elétricas, como intervenientes ativos com capacidade para gerir os seus recursos energéticos, nomeadamente as cargas, as unidades de produção, os veículos elétricos e a participação em eventos de Demand Response. Tem sido evidente um aumento do consumo de energia, sendo que o setor residencial representa uma importante parte do consumo global dos países desenvolvidos. Para que a participação ativa dos consumidores seja possível, várias abordagens têm vindo a ser propostas, com ênfase nas Smart Grids e nas Microgrids. Diversos sistemas têm sido propostos e desenvolvidos com o intuito de tornar a operação dos sistemas elétricos mais flexível. Neste contexto, os sistemas de gestão de instalações domésticas apresentam-se como um elemento fulcral para a participação ativa dos consumidores na gestão energética, permitindo aos operadores de sistema coordenarem a produção mas também a procura. No entanto, é importante identificar as vantagens da implementação e uso de sistemas de gestão de energia elétrica para os consumidores finais. Nesta dissertação são propostas metodologias de apoio ao consumidor doméstico na gestão dos recursos energéticos existentes e a implementação das mesmas na plataforma de simulação de um sistema de gestão de energia desenvolvido para consumidores domésticos, o SCADA House Intelligent Management (SHIM). Para tal, foi desenvolvida uma interface que permite a simulação em laboratório do sistema de gestão desenvolvido. Adicionalmente, o SHIM foi incluído no simulador Multi-Agent Smart Grid Simulation Plataform (MASGriP) permitindo a simulação de cenários considerando diferentes agentes. Ao nível das metodologias desenvolvidas são propostos diferentes algoritmos de gestão dos recursos energéticos existentes numa habitação, considerando utilizadores com diferentes tipos de recursos (cargas; cargas e veículos elétricos; cargas, veículos elétricos e microgeração). Adicionalmente é proposto um método de gestão dinâmica das cargas para eventos de Demand Response de longa duração, considerando as características técnicas dos equipamentos. Nesta dissertação são apresentados cinco casos de estudos em que cada um deles tem diferentes cenários de simulação. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias propostas para o SHIM. Adicionalmente são apresentados na dissertação perfis reais dos vários recursos energéticos e de consumidores domésticos que são, posteriormente, utilizados para o desenvolvimento dos casos de estudo e aplicação das metodologias.
Resumo:
A exploração do meio subaquático utilizando visão computacional é ainda um processo complexo. Geralmente são utilizados sistemas de visão baseados em visão stereo, no entanto, esta abordagem apresenta limitações, é pouco precisa e é exigente em termos computacionais quando o meio de operação é o subaquático. Estas limitações surgem principalmente em dois cenários de aplicação: quando existe escassez de iluminação e em operações junto a infraestruturas subaquáticas. Consequentemente, a solução reside na utilização de fontes de informação sensorial alternativas ou complementares ao sistema de visão computacional. Neste trabalho propõe-se o desenvolvimento de um sistema de percepção subaquático que combina uma câmara e um projetor laser de um feixe em linha, onde o projetor de luz estruturada _e utilizado como fonte de informação. Em qualquer sistema de visão computacional, e ainda mais relevante em sistemas baseados em triangulação, a sua correta calibração toma um papel fulcral para a qualidade das medidas obtidas com o sistema. A calibração do sistema de visão laser foi dividida em duas etapas. A primeira etapa diz respeito à calibração da câmara, onde são definidos os parâmetros intrínsecos e os parâmetros extrínsecos relativos a este sensor. A segunda etapa define a relação entre a câmara e o laser, sendo esta etapa necessária para a obtenção de imagens tridimensionais. Assim, um dos principais desafios desta dissertação passou por resolver o problema da calibração inerente a este sistema. Desse modo, foi desenvolvida uma ferramenta que requer, pelo menos duas fotos do padrão de xadrez, com perspectivas diferentes. O método proposto foi caracterizado e validado em ambientes secos e subaquáticos. Os resultados obtidos mostram que o sistema _e preciso e os valores de profundidade obtidos apresentam um erro significativamente baixo (inferiores a 1 mm), mesmo com uma base-line (distância entre a centro óptico da câmara e o plano de incidência do laser) reduzida.
Resumo:
A antropologia forense é uma disciplina das ciências forenses que trata da análise de restos cadavéricos humanos para fins legais. Uma das suas aplicações mais populares é a identificação forense que consiste em determinar o perfil biológico (idade, sexo, ancestralidade e estatura) de um indivíduo. No entanto, este processo muitas vezes é dificultado quando o corpo se encontra em avançado estado de decomposição apenas existindo restos esqueléticos. Neste caso, áreas médicas comummente utilizadas na identificação de cadáveres, como a patologia, tem de ser descartadas e surge a necessidade de aplicar outras técnicas. Neste contexto, muitos métodos antropométricos são propostos de forma a caracterizar uma pessoa através do seu esqueleto. Contudo, constata-se que a maioria dos procedimentos sugeridos é baseada em equipamentos básicos de medição, não usufruindo da tecnologia contemporânea. Assim, em parceria com a Delegação Norte do NMLCF, I. P., esta Tese teve na sua génese a criação de um sistema computacional baseado em imagens de Tomografia Computorizada (TC) de ossadas que, através de ferramentas open source, permita a realização de identificação forense. O trabalho apresentado baseia-se no processo de gestão de informação, aquisição, processamento e visualização de imagens TC. No decorrer da realização da presente Tese foi desenvolvida uma base de dados que permite organizar a informação de cada ossada e foram implementados algoritmos que levam a uma extracção de características muito mais vasta que a efetuada manualmente com os equipamentos de medição clássicos. O resultado final deste estudo consistiu num conjunto de técnicas que poderão ser englobadas num sistema computacional de identificação forense e deste modo criar uma aplicação com vantagens tecnológicas evidentes.
Resumo:
Esta dissertação apresenta um estudo sobre a garantia de fornecimento de energia elétrica por parte dos produtores em regime especial com tecnologia cogeração e o impacto que estes traduzem na fase de planeamento da rede. Este trabalho foi realizado na Energias de Portugal - Distribuição (EDP-D) na direção de planeamento da rede (DPL). Para este estudo foi utilizado o caso de uma subestação com dezoito produtores em regime especial agregados à sua rede, em que dezasseis desses produtores são cogeração. A proposta de estudo para o caso concreto, passa pela análise das condições de funcionamento da subestação e apurar se a mesma necessita de alguma reformulação, tendo em vista as cargas a satisfazer atuais e possível incremento de carga futura. Considerando que a subestação está inserida num ambiente industrial e atendendo que existem diversos produtores de energia elétrica nas imediações da subestação. Para a resolução da garantia do fornecimento de energia por parte da cogeração, estudou-se a possibilidade de prever a energia produzida por estes produtores, através dos seguintes modelos de previsão: árvore de regressão, árvore de regressão com aplicação bagging e uma rede neuronal (unidirecional). Com a implementação destes modelos pretende-se estimar qual a potência que se pode esperar na garantia de abastecimento da carga, prevenindo maior solicitação de potência por parte da subestação. A metodologia utilizada baseia-se em simulações computacionais.
Resumo:
No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.
Resumo:
A liberalização dos mercados de energia e a utilização intensiva de produção distribuída tem vindo a provocar uma alteração no paradigma de operação das redes de distribuição de energia elétrica. A continuidade da fiabilidade das redes de distribuição no contexto destes novos paradigmas requer alterações estruturais e funcionais. O conceito de Smart Grid vem permitir a adaptação das redes de distribuição ao novo contexto. Numa Smart Grid os pequenos e médios consumidores são chamados ao plano ativo das participações. Este processo é conseguido através da aplicação de programas de demand response e da existência de players agregadores. O uso de programas de demand response para alcançar benefícios para a rede encontra-se atualmente a ser estudado no meio científico. Porém, existe a necessidade de estudos que procurem benefícios para os pequenos e médios consumidores. O alcance dos benefícios para os pequenos e médios consumidores não é apenas vantajoso para o consumidor, como também o é para a rede elétrica de distribuição. A participação, dos pequenos e médios consumidores, em programas de demand response acontece significativamente através da redução de consumos energéticos. De modo a evitar os impactos negativos que podem provir dessas reduções, o trabalho aqui proposto faz uso de otimizações que recorrem a técnicas de aprendizagem através da utilização redes neuronais artificiais. Para poder efetuar um melhor enquadramento do trabalho com as Smart Grids, será desenvolvido um sistema multiagente capaz de simular os principais players de uma Smart Grid. O foco deste sistema multiagente será o agente responsável pela simulação do pequeno e médio consumidor. Este agente terá não só que replicar um pequeno e médio consumidor, como terá ainda que possibilitar a integração de cargas reais e virtuais. Como meio de interação com o pequeno e médio consumidor, foi desenvolvida no âmbito desta dissertação um sistema móvel. No final do trabalho obteve-se um sistema multiagente capaz de simular uma Smart Grid e a execução de programas de demand response, sSendo o agente representante do pequeno e médio consumidor capaz de tomar ações e reações de modo a poder responder autonomamente aos programas de demand response lançados na rede. O desenvolvimento do sistema permite: o estudo e análise da integração dos pequenos e médios consumidores nas Smart Grids por meio de programas de demand response; a comparação entre múltiplos algoritmos de otimização; e a integração de métodos de aprendizagem. De modo a demonstrar e viabilizar as capacidades de todo o sistema, a dissertação inclui casos de estudo para as várias vertentes que podem ser exploradas com o sistema desenvolvido.
Resumo:
O presente trabalho descreve a análise feita a um veículo de todo o terreno. O kartcross/buggy em estudo é usado em provas do tipo Baja, sendo estas provas longas e com traçados sinuosos. O veículo, já construído, foi testado através de softwares, a nível estrutural e ciclístico, pretendendo-se assim efetuar engenharia inversa sobre o mesmo. No decorrer da sua utilização normal o kartcross/buggy sofre vários tipos de solicitações, como sejam aceleração, travagem e força centrípta em curva. Portanto, o veículo deve ser capaz de suportar estes esforços e ter uma boa habilidade. Além dos testes em uso corrente foi analisada também a rigidez torsional do quadro do veículo e do veículo completo, podendo-se assim melhorar estes valores. A nível ciclístico foram analisados os parâmetros das suspensões como o camber, convergência/divergência, caster, entre outros. Da análise destes parâmetros e possível fazerem-se melhorias de forma a que o veículo tenha um melhor desempenho. Para validar os testes computacionais efetuados foi reproduzido experimentalmente o teste da rigidez torsional. No final, compararam-se os valores numéricos com os experimentais e aferir se o modelo se encontra bem representado.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Civil – Perfil de Construção
Optimização da focagem de feixes laser em tecidos biológicos: desenvolvimento de um simulador óptico
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Biomédica
Resumo:
WWW is a huge, open, heterogeneous system, however its contents data is mainly human oriented. The Semantic Web needs to assure that data is readable and “understandable” to intelligent software agents, though the use of explicit and formal semantics. Ontologies constitute a privileged artifact for capturing the semantic of the WWW data. Temporal and spatial dimensions are transversal to the generality of knowledge domains and therefore are fundamental for the reasoning process of software agents. Representing temporal/spatial evolution of concepts and their relations in OWL (W3C standard for ontologies) it is not straightforward. Although proposed several strategies to tackle this problem but there is still no formal and standard approach. This work main goal consists of development of methods/tools to support the engineering of temporal and spatial aspects in intelligent systems through the use of OWL ontologies. An existing method for ontology engineering, Fonte was used as framework for the development of this work. As main contributions of this work Fonte was re-engineered in order to: i) support the spatial dimension; ii) work with OWL Ontologies; iii) and support the application of Ontology Design Patterns. Finally, the capabilities of the proposed approach were demonstrated by engineering time and space in a demo ontology about football.
Resumo:
A composição musical é um tema de muito interesse para a computação evolucionária dentro da área da inteligência artificial. É uma área que tem sofrido vários desenvolvimentos ao longo dos últimos anos pois o interesse em que hajam computadores que façam obras musicais é deveras aliciante. Este trabalho tem por objectivo realizar mais um passo nesse sentido. Assim, foi desenvolvida uma aplicação informática que realiza composições musicais de dois géneros distintos: Músicas Infantis e Músicas Blues. A aplicação foi implementada com recurso aos Algoritmos Genéticos, que são os algoritmos evolucionários mais populares da área da computação evolucionária. O trabalho foi estruturado em duas fases de desenvolvimento. Na primeira fase, realizou-se um levantamento estatístico sobre as características específicas de cada um dos géneros musicais. Analisaram-se quinze músicas de cada género musical, com o intuito de se chegar a uma proporção do uso que cada nota tem em cada um dos casos. Na segunda fase, desenvolveu-se o software que compõe as músicas com implementação de um algoritmo genético. Além disso, foi também desenvolvida uma interface gráfica que permite ao utilizador a escolha do género musical que pretende compor. O algoritmo genético começa por gerar uma população inicial de potenciais soluções de acordo com a escolha do utilizador, realizando, de seguida, o ciclo que caracteriza o algoritmo genético. A população inicial é constituída por soluções que seguem as regras que foram implementadas de acordo com os dados recolhidos ao longo da primeira fase. Foi também implementada uma interface de avaliação, através da qual, o utilizador pode ouvir cada uma das músicas para posterior avaliação em termos de fitness. O estado de evolução do algoritmo é apresentado, numa segunda interface, a qual facilita a clareza e justiça na avaliação ao longo de todo o processo. Esta última apresenta informação sobre a média das fitness da geração anterior e actual, sendo assim possível ter uma noção da evolução do algoritmo, no sentido de se obterem resultados satisfatórios no que diz respeito às composições musicais.