169 resultados para Simulação de sistemas automatizados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve o intuito de testar a viabilidade da programação offline para tarefas de lixamento na empresa Grohe Portugal. Para tal era necessário perceber o que é a programação offline e para isso foi efectuada uma pesquisa referente a essa temática, onde ficou evidente que a programação offline é em tudo semelhante à programação online, tendo apenas como principal diferença o facto de não usar o robô propriamente dito durante o desenvolvimento do programa. Devido à ausência do robô, a programação offline exige que se conheça detalhadamente a célula de trabalho, bem como todas as entradas e saídas associadas à célula, sendo que o conhecimento das entradas e saídas pode ser contornada carregando um backup do robô ou carregando os módulos de sistema. No entanto os fabricantes habitualmente não fornecem informação detalhada sobre as células de trabalho, o que dificulta o processo de implementação da unidade no modelo 3D para a programação offline. Após este estudo inicial, foi efectuado um estudo das características inerentes a cada uma das células existentes, com o objectivo de se obter uma melhor percepção de toda a envolvente relacionada com as tarefas de lixamento. Ao longo desse estudo efectuaram-se vários testes para validar os diversos programas desenvolvidos, bem como para testar a modelação 3D efectuada. O projecto propriamente dito consistiu no desenvolvimento de programas offline de forma a minimizar o impacto (em especial o tempo de paragem) da programação de novos produtos. Todo o trabalho de programação era até então feito utilizando o robô, o que implicava tempos de paragem que podiam ser superiores a três dias. Com o desenvolvimento dos programas em modo offline conseguiu-se reduzir esse tempo de paragem dos robôs para pouco mais de um turno (8h), existindo apenas a necessidade de efectuar algumas afinações e correcções nos movimentos de entrada, saída e movimentações entre rotinas e unidades, uma vez que estes movimentos são essenciais ao bom acabamento da peça e convém que seja suaves. Para a realização e conclusão deste projecto foram superadas diversas etapas, sendo que as mais relevantes foram: - A correcta modelação 3D da célula, tendo em conta todo o cenário envolvente, para evitar colisões do robô com a célula; - A adaptação da programação offline para uma linguagem mais usual aos afinadores, ou seja, efectuar a programação com targets inline e criar diferentes rotinas para cada uma das partes da peça, facilitando assim a afinação; - A habituação à programação recorrendo apenas ao uso de módulos para transferir os programas para a célula, bem como a utilização de entradas, saídas e algumas rotinas e funcionalidades já existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A geração de trajectórias de robôs em tempo real é uma tarefa muito complexa, não existindo ainda um algoritmo que a permita resolver de forma eficaz. De facto, há controladores eficientes para trajectórias previamente definidas, todavia, a adaptação a variações imprevisíveis, como sendo terrenos irregulares ou obstáculos, constitui ainda um problema em aberto na geração de trajectórias em tempo real de robôs. Neste trabalho apresentam-se modelos de geradores centrais de padrões de locomoção (CPGs), inspirados na biologia, que geram os ritmos locomotores num robô quadrúpede. Os CPGs são modelados matematicamente por sistemas acoplados de células (ou neurónios), sendo a dinâmica de cada célula dada por um sistema de equações diferenciais ordinárias não lineares. Assume-se que as trajectórias dos robôs são constituídas por esta parte rítmica e por uma parte discreta. A parte discreta pode ser embebida na parte rítmica, (a.1) como um offset ou (a.2) adicionada às expressões rítmicas, ou (b) pode ser calculada independentemente e adicionada exactamente antes do envio dos sinais para as articulações do robô. A parte discreta permite inserir no passo locomotor uma perturbação, que poderá estar associada à locomoção em terrenos irregulares ou à existência de obstáculos na trajectória do robô. Para se proceder á análise do sistema com parte discreta, será variado o parâmetro g. O parâmetro g, presente nas equações da parte discreta, representa o offset do sinal após a inclusão da parte discreta. Revê-se a teoria de bifurcação e simetria que permite a classificação das soluções periódicas produzidas pelos modelos de CPGs com passos locomotores quadrúpedes. Nas simulações numéricas, usam-se as equações de Morris-Lecar e o oscilador de Hopf como modelos da dinâmica interna de cada célula para a parte rítmica. A parte discreta é modelada por um sistema inspirado no modelo VITE. Medem-se a amplitude e a frequência de dois passos locomotores para variação do parâmetro g, no intervalo [-5;5]. Consideram-se duas formas distintas de incluir a parte discreta na parte rítmica: (a) como um (a.1) offset ou (a.2) somada nas expressões que modelam a parte rítmica, e (b) somada ao sinal da parte rítmica antes de ser enviado às articulações do robô. No caso (a.1), considerando o oscilador de Hopf como dinâmica interna das células, verifica-se que a amplitude e frequência se mantêm constantes para -5de Hopf, a amplitude e a frequência têm o mesmo comportamento, crescendo e diminuindo nos intervalos de g [-0.5,0.34] e [0.4,1.83], sendo nos restantes valores de g nulas. Isto traduz-se em variações na extensão do movimento e na velocidade do robô, proporcionais à amplitude e à frequência, respectivamente. Ainda com o oscilador Hopf, no caso (b), a frequência mantêm-se constante enquanto a amplitude diminui para g<0.2 e aumenta para g>0.2. A extensão do movimento varia de forma directamente proporcional à amplitude. No caso das equações de Morris-Lecar, quando a componente discreta é embebida (a.2), a amplitude e a frequência aumentam e depois diminuem para - 0.17de diminui para g<0.5 e aumenta para g>0.5 Pode concluir-se que: (1) a melhor forma de inserção da parte discreta que menos perturbação insere no robô é a inserção como offset; (2) a inserção da parte discreta parece ser independente do sistema de equações diferenciais ordinárias que modelam a dinâmica interna de cada célula. Como trabalho futuro, é importante prosseguir o estudo das diferentes formas de inserção da parte discreta na parte rítmica do movimento, para que se possa gerar uma locomoção quadrúpede, robusta, flexível, com objectivos, em terrenos irregulares, modelada por correcções discretas aos padrões rítmicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação e venda de robôs autónomos tem sido um sector que nos últimos anos tem adquirido cada vez mais quota no mercado, nomeadamente no sector militar, agrícola e da vigilância. Como tal, tem sido também de grande importância a capacidade de implementar e testar robôs por parte das entidades que os fabricam. Uma das formas que tem garantido o sucesso do desenvolvimento de robôs é a simulação prévia dos mesmos antes que estes passem a fase de produção. Sendo assim, o LSA como entidade de desenvolvimento de robôs autónomos, tem necessidade de adquirir um sistema que simule os robôs em desenvolvimento. O trabalho desta tese consiste na realização de um sistema que simule robôs autónomos terrestres de forma que se possa observar o comportamento da cinemática, dinânica e hardware dos robôs em ambiente 3D. Esta aplicação de simulação pode mais tarde ser utilizada pelo laboratório para testar missões, validar alterações de estrutura, sensores, etc. Para além disso, com recurso ao simulador Player/Stage/Gazebo testar o robô LINCE e implementar algoritmos de controlo para o mesmo. Os algoritmos de controlo implementados baseiam-se em primitivas de controlo básico para serem utilizadas pelo sistema de navegação e gerar trajectórias complexas. Os algoritmos desenvolvidos nesta tese baseiam-se nas equações cinemáticas do veículo estudado. Estes algoritmos depois de testados no simulador, poderão ser colocados no Hardware do robô. Desta forma consegue-se desenvolver algoritmos para determinado robô sem que este esteja operacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese pretende desenvolver o estudo de um padrão que utiliza um modelo de implementação fundamentado na natureza das operações que um sistema pretende executar. Estas operações são distinguidas pelo que realizam, portanto um sistema poderá ser dividido em duas grandes áreas: uma, de leitura de dados, e outra, de manipulação de dados. A maior parte dos sistemas atuais está a progredir, com o objetivo de conseguir suportar muitos utilizadores em simultâneo, e é neste aspeto que este padrão se diferencia porque vai permitir escalar, com muita facilidade e sem sobrecarga. Além disso, este estudo deverá facultar um conjunto de boas práticas e incidir sobre o facto de se pretender desenhar um sistema de raiz e não apenas em “migrar” de um sistema já existente. Ao estudar este padrão é essencial estudar e analisar a evolução da utilização futura dos sistemas, para determinar a utilidade e a aplicação crescente ou não, deste padrão. Interessa também saber, quem implementa atualmente este padrão, em que tipo de produtos, e enaltecer o seu sucesso de implementação, estimulando o desenvolvimento da sua utilização. Finalmente, demonstra-se a aplicabilidade e validade do padrão proposto, através de uma implementação modelo, com a ajuda de uma framework de forma a determinar quais as ferramentas existentes que possam ser úteis e contribuir para a implementação deste padrão. O objetivo final será demonstrar os principais componentes do sistema, como poderá prosseguir a sua evolução e como poderá ser melhorada e simplificada a comunicação entre os seus componentes, para uma utilização mais fácil, frequente e de interesse comum para todos: utilizadores e administradores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os laboratórios de experimentação remota estão normalmente associados a tecnologias ou soluções proprietárias, as quais restringem a sua utilização a determinadas plataformas e obrigam ao uso de software específico no lado do cliente. O ISEP possui um laboratório de experimentação remota, baseado em instrumentação virtual, usado no apoio ao ensino da electrónica e construído sobre uma plataforma NIELVIS da National Instruments. O software de controlo da plataforma recorre à linguagem gráfica de programação LabVIEW. Esta é uma ferramenta desenvolvida pela National Instruments que facilita o desenvolvimento de aplicações de sistemas de experimentação remota, mas que possui várias limitações, nomeadamente a necessidade de instalação do lado do cliente de um plug-in, cuja disponibilidade se encontra limitada a determinadas versões de sistemas operativos e de Web Browsers. A experiência anterior demonstrou que estas questões limitam o número de clientes com possibilidade de acesso ao laboratório remoto, para além de, em alguns casos, se ter verificado não ser transparente a sua instalação e utilização. Neste contexto, o trabalho de investigação consistiu no desenvolvimento de uma solução que permite a geração de interfaces que possibilitam o controlo remoto do sistema implementado, e que, ao mesmo tempo, são independentes da plataforma usada pelo cliente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents the Fuzzy Monte Carlo Model for Transmission Power Systems Reliability based studies (FMC-TRel) methodology, which is based on statistical failure and repair data of the transmission power system components and uses fuzzyprobabilistic modeling for system component outage parameters. Using statistical records allows developing the fuzzy membership functions of system component outage parameters. The proposed hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models allows catching both randomness and fuzziness of component outage parameters. A network contingency analysis to identify any overloading or voltage violation in the network is performed once obtained the system states. This is followed by a remedial action algorithm, based on Optimal Power Flow, to reschedule generations and alleviate constraint violations and, at the same time, to avoid any load curtailment, if possible, or, otherwise, to minimize the total load curtailment, for the states identified by the contingency analysis. For the system states that cause load curtailment, an optimization approach is applied to reduce the probability of occurrence of these states while minimizing the costs to achieve that reduction. This methodology is of most importance for supporting the transmission system operator decision making, namely in the identification of critical components and in the planning of future investments in the transmission power system. A case study based on Reliability Test System (RTS) 1996 IEEE 24 Bus is presented to illustrate with detail the application of the proposed methodology.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A gestão dos sistemas eléctricos de energia assume um papel fundamental a vários níveis. Desde logo, o bom funcionamento (qualidade e continuidade de serviço) e a segurança da exploração apenas são conseguidos com um bom planeamento. Outro ponto importantíssimo é o aspecto económico. A este nível, os sistemas eléctricos representam um peso importante nas economias nacionais, uma vez que a energia é o motor do desenvolvimento. Nos tempos que correm, o aparecimento de grandes potências tem agitado os mercados energéticos, fazendo com que o preço dos produtos energéticos atinja máximos históricos. No primeiro capítulo deste trabalho, é feita uma introdução onde se apresenta e contextualiza o Despacho Óptimo na gestão global dos sistemas eléctricos de energia e como estes evoluíram nos últimos anos. O problema do Despacho Óptimo e todas as condicionantes/variáveis inerentes à sua resolução são aprofundados no capítulo 2. Primeiramente desprezando as perdas de transmissão das linhas, e depois com a sua contemplação. É, também, apresentado o métodos dos multiplicadores de Lagrange aplicado a este problema. No capítulo 3 é feita uma resenha da evolução dos métodos utilizados para a resolução do Despacho Óptimo, fazendo-se a destrinça entre os métodos clássicos e os mais recentes métodos heurísticos. A evolução que se tem verificado ao longo dos anos nos métodos utilizados, assim como o recurso ao cálculo computacional, devem-se à crescente complexidade dos Sistemas Eléctricos e à necessidade de rapidez e precisão nos resultados. Devido ao facto das centrais de produção de energia eléctrica funcionarem, não só com recurso a matérias-primas mas também através de recursos naturais que não têm um custo de aquisição, mas que não têm uma disponibilidade constante, existe a necessidade de se fazer uma gestão criteriosa na conjugação dos diversos tipos de produção. Como no nosso pais a grande alternativa às centrais térmicas são as hídricas, no capítulo 4 é apresentado o problema da coordenação hidro-térmica. No capítulo 5 é exposta a ferramenta computacional desenvolvida para a resolução do despacho óptimo com e sem perdas, que consiste num programa elaborado com o “software MatLab”. Este trabalho finaliza com um capítulo de conclusões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma linha de pesquisa e desenvolvimento na área da robótica, que tem recebido atenção crescente nos últimos anos, é o desenvolvimento de robôs biologicamente inspirados. A ideia é adquirir conhecimento de seres biológicos, cuja evolução ocorreu ao longo de milhões de anos, e aproveitar o conhecimento assim adquirido para implementar a locomoção pelos mesmos métodos (ou pelo menos usar a inspiração biológica) nas máquinas que se constroem. Acredita-se que desta forma é possível desenvolver máquinas com capacidades semelhantes às dos seres biológicos em termos de capacidade e eficiência energética de locomoção. Uma forma de compreender melhor o funcionamento destes sistemas, sem a necessidade de desenvolver protótipos dispendiosos e com longos tempos de desenvolvimento é usar modelos de simulação. Com base nestas ideias, o objectivo deste trabalho passa por efectuar um estudo da biomecânica da santola (Maja brachydactyla), uma espécie de caranguejo comestível pertencente à família Majidae de artrópodes decápodes, usando a biblioteca de ferramentas SimMechanics da aplicação Matlab / Simulink. Esta tese descreve a anatomia e locomoção da santola, a sua modelação biomecânica e a simulação do seu movimento no ambiente Matlab / SimMechanics e SolidWorks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A compreensão das interacções entre os oceanos, a linha de costa, a qualidade do ar e as florestas só será possível através do registo e análise de informação geo-temporalmente referenciada. Mas a monitorização de grandes áreas apresenta o problema da cobertura espacial e temporal, e os custos nela envolvidos pela impossibilidade de disseminar a quantidade de estações de monitorização necessários à compreensão do fenómeno. É necessário então definir metodologias de colocação de sensores e recolha de informação de forma robusta, económica e temporalmente útil. Nesta dissertação apresentamos uma estratégia de monitorização ambiental, para meios hídricos, (ou de grande dimensão) que baseada em sistemas móveis e alguns princípios da geoestatística, fornece uma ferramenta de monitorização mais económica, sem prejuízo da qualidade de informação. Os modelos usados na geoestatística assentam na ideia de que medidas mais próximas tendem a serem mais parecidas do que valores observados em locais distantes e fornece métodos para quantificar esta correlação espacial e incorporá-la na estimação. Os resultados obtidos sustentam a convicção do uso de veículos móveis em redes de sensores e que contribuímos para responder à seguinte questão “Qual a técnica que nos permite com poucos sensores monitorizar grandes áreas?”. A solução passará por modelos de estimação de grandezas utilizados na geoestatística associados a sistemas móveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A necessidade de diminuir os consumos de energia, não só por questões financeiras mas também por questões ambientais, faz com que sejam feitos esforços no sentido da implementação de energias renováveis bem como da melhoria e expansão das soluções técnicas já conhecidas. Uma das maiores fontes de energia renovável, senão mesmo a maior, é a energia solar que, no futuro, terá uma contribuição muito significativa, quer na satisfação dos consumos energéticos, quer na racionalização da sua utilização, isto é, na melhoria da eficiência do consumo. O presente trabalho focou-se na procura de um sistema solar térmico para o pré-aquecimento da água quente a ser utilizada numa fábrica de curtumes, a empresa Curtumes Aveneda, Lda. Em simultâneo, desenvolveram-se e optimizaram-se processos de produtos específicos que o mercado exige actualmente, visando uma economia de recursos (matérias-primas, água e energia), objectivando sempre a sua viabilidade económica. No que respeita à procura do sistema solar térmico, inicialmente foram realizados levantamentos relativos ao consumo de água, quente e fria, na respectiva empresa. Esta avaliação focou-se em todos os sectores consumidores intensivos de água, tais como a ribeira, curtume e a tinturaria, excluindo o sector de acabamento uma vez que o consumo aqui é insignificante relativamente aos sectores citados anteriormente. Com base no levantamento efectuado foi dimensionado um sistema solar térmico para o pré aquecimento da água quente que conduz a uma economia anual de 107.808,3 kWh de energia térmica, representativa de 29% do consumo anual de energia térmica de aquecimento de água. Foi efectuada análise económica deste investimento que mostrou um índice de rentabilidade superior à unidade e um tempo de retorno do investimento de 9 anos. Desenvolveu-se com sucesso um produto de couro a partir de wet-blue, designado por crispado, produto normalmente produzido a partir da pele em tripa e muito difícil de obter a partir de wet-blue. Este produto caracteriza-se pela sua forma granular irregular e firme da pele. O processo desenvolvido foi ainda optimizado no sentido da redução do consumo de água e de energia. Tendo em conta a necessidade da empresa também se tentou melhorar as características do couro wet-white, muito solicitado actualmente, com resultados positivos no que respeita à temperatura de contracção do couro e às propriedades físico-mecânicas mas sem se atingir o principal objectivo que seria tornar a cor mais clara e mais pura. Foram desta forma dados contributos importantes para a empresa que, assim, dimensionou um sistema mais económico para o aquecimento de água que vai adoptar e ficou com um processo disponível para produzir um produto até então não conseguido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objectivo a simulação e verificação do funcionamento de 3 colunas de destilação, a T-0303, a T-0306 e a T-0307, integrantes do processo de produção de p-xileno, baseado nos dados relativos ao ano de 2008, existente na refinaria da Galp no Porto. A abordagem consistiu em utilizar o AspenPlus quer para a simulação quer para a optimização, sendo esta última complementada com um planeamento experimental e optimização no Minitab15. O critério de optimização foi estabelecido a partir de uma análise ao processo actual, na qual se averiguou que se poderia, no limite: produzir mais 15,30ton.ano-1 de p-xileno no conjunto de colunas T-0306 e T-0307; remover mais 1,36ton.ano-1 de dessorvente na coluna T-0303 e diminuir a energia necessária para o processo. Da optimização à coluna T-0303, obteve-se uma melhoria de remoção de 0,34ton.ano-1 de dessorvente, e uma diminuição na energia necessária para 333,24.106kWh por ano. Para obter esta optimização houve necessidade de ultrapassar em 109,852kW a potência da bomba P0306A/S e alterou-se a razão de refluxo na base para 46,1. A optimização conjunta das colunas T-0306 e T-0307 apenas possibilita uma melhoria de p-xileno de 3,4ton.ano-1. De uma optimização individual da coluna T-0307, mantendo a coluna T-0306 nas condições actuais, obteve-se uma melhoria na produção de p-xileno de 14,62ton.ano-1. Neste ensaio as potências do condensador E-0314, do reebulidor E-0306 e da bomba P0314A/S excedem, as actuais em, respectivamente, 35,71kW, 35,74kW e 0,12kW. Enquanto para a situação actual o custo de p-xileno equivale a 722,17€.ton-1, para a optimização simultânea da coluna T-0303 e T-0307, é de 723,39€.ton-1 e para a optimização de apenas da coluna T-0307 é de 722,81€.ton-1. Perante um preço de venda actual de pxileno de 749,10€.ton-1 todas as situações são favoráveis. Em suma, é possível uma optimização processual mas o custo por tonelada de pxileno fica superior ao actual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho de natureza profissional para a atribuição do Título de Especialista do Instituto Politécnico do Porto, na área de Recursos Humanos, defendido a 26-09-2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o presente trabalho é pretendido demonstrar a possibilidade de alimentação de um sistema de iluminação decorativa com recurso a soluções alternativas renováveis. O estudo é focado essencialmente na produção local de energia solar fotovoltaica e eólica. Inicialmente é efetuado o estudo técnico-económico da implementação de um sistema fotovoltaico. Posteriormente é efetuado o estudo da viabilidade técnico-económica da implementação do sistema hibrido, composto por um sistema fotovoltaico e um sistema eólico, optando pelo que mais se adequa à alimentação do sistema de iluminação decorativa exterior. Esta dissertação descreve a metodologia que procura melhorar a eficiência do sistema de led com o auxílio de ensaios em laboratório e simulação em software, com o objetivo de adaptar os sistemas de led instalados pela empresa ao sistema hibrido dimensionado. Finalmente, é efetuada a análise comparativa entre o atual sistema de iluminação decorativa e o sistema renovável dimensionado mais favorável para alimentar sistemas de iluminação decorativa. Procura-se assim com este projeto para além de apresentar um estudo teórico, proporcionar uma orientação à implementação de sistemas de microprodução destinados a alimentar sistemas de iluminação decorativa exterior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).