926 resultados para Photocatalytic filters
Resumo:
In this paper a new method for self-localization of mobile robots, based on a PCA positioning sensor to operate in unstructured environments, is proposed and experimentally validated. The proposed PCA extension is able to perform the eigenvectors computation from a set of signals corrupted by missing data. The sensor package considered in this work contains a 2D depth sensor pointed upwards to the ceiling, providing depth images with missing data. The positioning sensor obtained is then integrated in a Linear Parameter Varying mobile robot model to obtain a self-localization system, based on linear Kalman filters, with globally stable position error estimates. A study consisting in adding synthetic random corrupted data to the captured depth images revealed that this extended PCA technique is able to reconstruct the signals, with improved accuracy. The self-localization system obtained is assessed in unstructured environments and the methodologies are validated even in the case of varying illumination conditions.
Resumo:
The synthesis of nanocomposite materials combining titanate nanofibers (TNF) with nanocrystalline ZnS and Bi2S3 semiconductors is described in this work. The TNF were produced via hydrothermal synthesis and sensitized with the semiconductor nanoparticles, through a single-source precursor decomposition method. ZnS and Bi2S3 nanoparticles were successfully grown onto the TNF's surface and Bi2S3-ZnS/TNF nanocomposite materials with different layouts. The samples' photocatalytic performance was first evaluated through the production of the hydroxyl radical using terephthalic acid as probe molecule. All the tested samples show photocatalytic ability for the production of this oxidizing species. Afterwards, the samples were investigated for the removal of methylene blue. The nanocomposite materials with best adsorption ability were the ZnS/TNF and Bi2S3ZnS/TNF. The dye removal was systematically studied, and the most promising results were obtained considering a sequential combination of an adsorption-photocatalytic degradation process using the Bi2S3ZnS/TNF powder as a highly adsorbent and photocatalyst material. (C) 2015 Elsevier Ltd. All rights reserved.
Resumo:
This paper extents the by now classic sensor fusion complementary filter (CF) design, involving two sensors, to the case where three sensors that provide measurements in different bands are available. This paper shows that the use of classical CF techniques to tackle a generic three sensors fusion problem, based solely on their frequency domain characteristics, leads to a minimal realization, stable, sub-optimal solution, denoted as Complementary Filters3 (CF3). Then, a new approach for the estimation problem at hand is used, based on optimal linear Kalman filtering techniques. Moreover, the solution is shown to preserve the complementary property, i.e. the sum of the three transfer functions of the respective sensors add up to one, both in continuous and discrete time domains. This new class of filters are denoted as Complementary Kalman Filters3 (CKF3). The attitude estimation of a mobile robot is addressed, based on data from a rate gyroscope, a digital compass, and odometry. The experimental results obtained are reported.
Resumo:
1st European IAHR Congress, 6-4 May, Edinburgh, Scotland
Resumo:
Mestrado em Engenharia Mecânica – Ramo Energia
Resumo:
Os osciloscópios digitais são utilizados em diversas áreas do conhecimento, assumindo-se no âmbito da engenharia electrónica, como instrumentos indispensáveis. Graças ao advento das Field Programmable Gate Arrays (FPGAs), os instrumentos de medição reconfiguráveis, dadas as suas vantagens, i.e., altos desempenhos, baixos custos e elevada flexibilidade, são cada vez mais uma alternativa aos instrumentos tradicionalmente usados nos laboratórios. Tendo como objectivo a normalização no acesso e no controlo deste tipo de instrumentos, esta tese descreve o projecto e implementação de um osciloscópio digital reconfigurável baseado na norma IEEE 1451.0. Definido de acordo com uma arquitectura baseada nesta norma, as características do osciloscópio são descritas numa estrutura de dados denominada Transducer Electronic Data Sheet (TEDS), e o seu controlo é efectuado utilizando um conjunto de comandos normalizados. O osciloscópio implementa um conjunto de características e funcionalidades básicas, todas verificadas experimentalmente. Destas, destaca-se uma largura de banda de 575kHz, um intervalo de medição de 0.4V a 2.9V, a possibilidade de se definir um conjunto de escalas horizontais, o nível e declive de sincronismo e o modo de acoplamento com o circuito sob análise. Arquitecturalmente, o osciloscópio é constituído por um módulo especificado com a linguagem de descrição de hardware (HDL, Hardware Description Language) Verilog e por uma interface desenvolvida na linguagem de programação Java®. O módulo é embutido numa FPGA, definindo todo o processamento do osciloscópio. A interface permite o seu controlo e a representação do sinal medido. Durante o projecto foi utilizado um conversor Analógico/Digital (A/D) com uma frequência máxima de amostragem de 1.5MHz e 14 bits de resolução que, devido às suas limitações, obrigaram à implementação de um sistema de interpolação multi-estágio com filtros digitais.
Resumo:
Dissertação apresentada para obtenção do Grau de Doutor em Conservação e Restauro, especialidade de Ciências da Conservação, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
A eficiência energética tem um papel de importância crescente devido a questões ambientais e ao aumento dos custos energéticos. Recentemente foram tomadas medidas para regular o consumo e o fornecimento de energia reativa em Portugal, que tornaram mais rigorosas as condições de faturação. O custo crescente da energia e a implementação das smart grids apontam para um futuro de maior rigor sobre a utilização da energia reativa. Não será de estranhar que as regras de faturação sejam mais severas daqui a uns anos. O desenvolvimento tecnológico nas áreas da análise da energia e nas formas de controlo da compensação de energia reativa permitem resultados muito mais eficazes que aqueles apresentados pelos vulgares sistemas a contactores que constituem a maioria dos cenários. Apesar de terem um custo inicial superior, os sistemas de compensação do fator de potência com filtragem passiva de harmónicos, desde que projetados corretamente, trazem vantagens evidentes na sua exploração a longo prazo. Com este trabalho pretende-se promover a sensibilização para o uso de sistemas mais eficientes na compensação de energia reativa e para que estes sejam projetados mais à medida das necessidades de cada local. Também se demonstra a extrema importância da adequação destes sistemas à qualidade de energia do local, principalmente em termos de conteúdo harmónico. Desta forma, os sistemas serão mais flexíveis em termos de utilização e possibilitam a sua adaptação às necessidades mesmo que as regras de faturação de energia reativa se tornem mais rigorosas.
Resumo:
O projeto realizado teve como tema a aplicação das derivadas e integrais fraccionários para a implementação de filtros digitais numa perspetiva de processamento digital de sinais. Numa primeira fase do trabalho, é efetuado uma abordagem teórica sobre os filtros digitais e o cálculo fraccionário. Estes conceitos teóricos são utilizados posteriormente para o desenvolvimento do presente projeto. Numa segunda fase, é desenvolvida uma interface gráfica em ambiente MatLab, utilizando a ferramenta GUIDE. Esta interface gráfica tem como objetivo a implementação de filtros digitais fraccionários. Na terceira fase deste projeto são implementados os filtros desenvolvidos experimentalmente através do ADSP-2181, onde será possível analisar e comparar os resultados experimentais com os resultados obtidos por simulação no MatLab. Como quarta e última fase deste projeto é efetuado uma reflexão sobre todo o desenvolvimento da Tese e o que esta me proporcionou. Com este relatório pretendo apresentar todo o esforço aplicado na realização deste trabalho, bem como alguns dos conhecimentos adquiridos ao longo do curso.
Resumo:
Com a massificação do uso da tecnologia no dia-a-dia, os sistemas de localização têm vindo a aumentar a sua popularidade, devido à grande diversidade de funcionalidades que proporcionam e aplicações a que se destinam. No entanto, a maior parte dos sistemas de posicionamento não funcionam adequadamente em ambientes indoor, impedindo o desenvolvimento de aplicações de localização nestes ambientes. Os acelerómetros são muito utilizados nos sistemas de localização inercial, pelas informações que fornecem acerca das acelerações sofridas por um corpo. Para tal, neste trabalho, recorrendo à análise do sinal de aceleração provindo de um acelerómetro, propõe-se uma técnica baseada na deteção de passos para que, em aplicações futuras, possa constituir-se como um recurso a utilizar para calcular a posição do utilizador dentro de um edifício. Neste sentido, este trabalho tem como objetivo contribuir para o desenvolvimento da análise e identificação do sinal de aceleração obtido num pé, por forma a determinar a duração de um passo e o número de passos dados. Para alcançar o objetivo de estudo foram analisados, com recurso ao Matlab, um conjunto de 12 dados de aceleração (para marcha normal, rápida e corrida) recolhidos por um sistema móvel (e provenientes de um acelerómetro). A partir deste estudo exploratório tornou-se possível apresentar um algoritmo baseado no método de deteção de pico e na utilização de filtros de mediana e Butterworth passa-baixo para a contagem de passos, que apresentou bons resultados. Por forma a validar as informações obtidas nesta fase, procedeu-se, seguidamente, à realização de um conjunto de testes experimentais a partir da recolha de 33 novos dados para a marcha e corrida. Identificaram-se o número de passos efetuados, o tempo médio de passo e da passada e a percentagem de erro como as variáveis em estudo. Obteve-se uma percentagem de erro igual a 1% para o total dos dados recolhidos de 20, 100, 500 e 1000 passos com a aplicação do método proposto para a contagem do passo. Não obstante as dificuldades observadas na análise dos sinais de aceleração relativos à corrida, o algoritmo proposto mostrou bom desempenho, conseguindo valores próximos aos esperados. Os resultados obtidos permitem afirmar que foi possível atingir-se o objetivo de estudo com sucesso. Sugere-se, no entanto, o desenvolvimento de futuras investigações de forma a alargar estes resultados em outras direções.
Resumo:
Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.
Resumo:
This work presents a hybrid coordinated manoeuvre for docking an autonomous surface vehicle with an autonomous underwater vehicle. The control manoeuvre uses visual information to estimate the AUV relative position and attitude in relation to the ASV and steers the ASV in order to dock with the AUV. The AUV is assumed to be at surface with only a small fraction of its volume visible. The system implemented in the autonomous surface vehicle ROAZ, developed by LSA-ISEP to perform missions in river environment, test autonomous AUV docking capabilities and multiple AUV/ASV coordinated missions is presented. Information from a low cost embedded robotics vision system (LSAVision), along with inertial navigation sensors is fused in an extended Kalman filter and used to determine AUV relative position and orientation to the surface vehicle The real time vision processing system is described and results are presented in operational scenario.
Resumo:
First IFAC Workshop on Fractional Differentiation and Its Application - 19-21 July 2004, Enseirb, Bordeaux, France - FDA'04
Resumo:
Target tracking with bearing-only sensors is a challenging problem when the target moves dynamically in complex scenarios. Besides the partial observability of such sensors, they have limited field of views, occlusions can occur, etc. In those cases, cooperative approaches with multiple tracking robots are interesting, but the different sources of uncertain information need to be considered appropriately in order to achieve better estimates. Even though there exist probabilistic filters that can estimate the position of a target dealing with incertainties, bearing-only measurements bring usually additional problems with initialization and data association. In this paper, we propose a multi-robot triangulation method with a dynamic baseline that can triangulate bearing-only measurements in a probabilistic manner to produce 3D observations. This method is combined with a decentralized stochastic filter and used to tackle those initialization and data association issues. The approach is validated with simulations and field experiments where a team of aerial and ground robots with cameras track a dynamic target.
Resumo:
A água é um recurso natural único, escasso e essencial a todos os seres vivos, o que a torna um bem de extrema importância. Nos dias de hoje, o desperdício deste bem, aliado ao aumento da sua procura, tornou-se um problema devido à decrescente disponibilidade de água doce no nosso planeta. Todas as águas que rejeitamos depois da sua utilização para diversos fins, designadas de águas residuais, necessitam de tratamento antes de serem devolvidas ao meio ambiente. O seu tratamento é realizado numa Estação de Tratamento de Águas Residuais (ETAR) e o processo de tratamento depende das suas características. A ETAR das Termas de S. Vicente, em Penafiel, trabalha no seu limite de capacidade, apresenta uma sobrecarga hidráulica gerada por uma afluência de águas pluviais e o processamento das lamas geradas não permite uma secagem tão completa como seria desejável. Assim, este trabalho teve como objetivo o estudo do funcionamento desta ETAR com a finalidade de propor soluções que o possam otimizar. As soluções propostas para otimizar o funcionamento da ETAR em estudo são: i) a substituição de grades de limpeza manual por grades de limpeza automática de forma a reduzir a necessidade da intervenção do operador ao nível da remoção e condicionamento dos gradados; ii) a construção de um desarenador arejado que além de remover areias de diâmetro superior a 0,2 mm promove também a remoção de gorduras, protegendo desta forma os equipamentos a jusante da abrasão/desgaste prematuros e reduzindo a formação de depósitos nas tubagens; iii) a construção de um tanque de equalização de forma a garantir uma distribuição mais uniforme dos caudais e da carga poluente; iv) a substituição do enchimento do leito percolador por um meio de suporte plástico que permite atingir melhores eficiências de remoção neste tratamento biológico; v) a alteração do agente de desinfeção para radiação ultravioleta, evitando a adição de produtos químicos na água residual e possível formação de subprodutos prejudiciais ao ambiente, como ocorreria no caso da cloragem; e vi) a substituição da desidratação de lamas em leitos de secagem por filtros de banda, que é um processo mais rápido, que ocupa menos espaço e permite atingir elevadas eficiências de remoção de humidade. Para cada uma das sugestões são apresentadas as correspondentes especificações técnicas e dimensionamento. As sugestões de melhoria apresentadas neste trabalho constituem uma alternativa mais económica do que a ampliação da ETAR, que genericamente corresponde à duplicação da linha de tratamento atual. Devido à menor complexidade em termos de construção, estas sugestões podem vir a ser implementadas num futuro próximo, prolongando assim um pouco mais a vida útil da ETAR atual.