39 resultados para omnidirectional camera
Resumo:
Este trabalho visa contribuir para o desenvolvimento de um sistema de visão multi-câmara para determinação da localização, atitude e seguimento de múltiplos objectos, para ser utilizado na unidade de robótica do INESCTEC, e resulta da necessidade de ter informação externa exacta que sirva de referência no estudo, caracterização e desenvolvimento de algoritmos de localização, navegação e controlo de vários sistemas autónomos. Com base na caracterização dos veículos autónomos existentes na unidade de robótica do INESCTEC e na análise dos seus cenários de operação, foi efectuado o levantamento de requisitos para o sistema a desenvolver. Foram estudados os fundamentos teóricos, necessários ao desenvolvimento do sistema, em temas relacionados com visão computacional, métodos de estimação e associação de dados para problemas de seguimento de múltiplos objectos . Foi proposta uma arquitectura para o sistema global que endereça os vários requisitos identi cados, permitindo a utilização de múltiplas câmaras e suportando o seguimento de múltiplos objectos, com ou sem marcadores. Foram implementados e validados componentes da arquitectura proposta e integrados num sistema para validação, focando na localização e seguimento de múltiplos objectos com marcadores luminosos à base de Light-Emitting Diodes (LEDs). Nomeadamente, os módulos para a identi cação dos pontos de interesse na imagem, técnicas para agrupar os vários pontos de interesse de cada objecto e efectuar a correspondência das medidas obtidas pelas várias câmaras, método para a determinação da posição e atitude dos objectos, ltro para seguimento de múltiplos objectos. Foram realizados testes para validação e a nação do sistema implementado que demonstram que a solução encontrada vai de encontro aos requisitos, e foram identi cadas as linhas de trabalho para a continuação do desenvolvimento do sistema global.
Resumo:
Mestrado em engenharia electrotécnica e de computadores - Área de Especialização de Sistemas Autónomos
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Sistemas Autónomos
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores - Ramo de Sistemas Autónomos
Resumo:
A exploração do meio subaquático utilizando visão computacional é ainda um processo complexo. Geralmente são utilizados sistemas de visão baseados em visão stereo, no entanto, esta abordagem apresenta limitações, é pouco precisa e é exigente em termos computacionais quando o meio de operação é o subaquático. Estas limitações surgem principalmente em dois cenários de aplicação: quando existe escassez de iluminação e em operações junto a infraestruturas subaquáticas. Consequentemente, a solução reside na utilização de fontes de informação sensorial alternativas ou complementares ao sistema de visão computacional. Neste trabalho propõe-se o desenvolvimento de um sistema de percepção subaquático que combina uma câmara e um projetor laser de um feixe em linha, onde o projetor de luz estruturada _e utilizado como fonte de informação. Em qualquer sistema de visão computacional, e ainda mais relevante em sistemas baseados em triangulação, a sua correta calibração toma um papel fulcral para a qualidade das medidas obtidas com o sistema. A calibração do sistema de visão laser foi dividida em duas etapas. A primeira etapa diz respeito à calibração da câmara, onde são definidos os parâmetros intrínsecos e os parâmetros extrínsecos relativos a este sensor. A segunda etapa define a relação entre a câmara e o laser, sendo esta etapa necessária para a obtenção de imagens tridimensionais. Assim, um dos principais desafios desta dissertação passou por resolver o problema da calibração inerente a este sistema. Desse modo, foi desenvolvida uma ferramenta que requer, pelo menos duas fotos do padrão de xadrez, com perspectivas diferentes. O método proposto foi caracterizado e validado em ambientes secos e subaquáticos. Os resultados obtidos mostram que o sistema _e preciso e os valores de profundidade obtidos apresentam um erro significativamente baixo (inferiores a 1 mm), mesmo com uma base-line (distância entre a centro óptico da câmara e o plano de incidência do laser) reduzida.
Resumo:
The year 2012 was the “boom year” in MOOC and all its outstanding growth until now, made us move forward in designing the first MOOC in our Institution (and the third in our country, Portugal). Most MOOC are video lectured based and the learning analytic process to these ones is just taking its first steps. Designing a video-lecture seems, at a first glance, very easy: one can just record a live lesson or lecture and turn it, directly, into a video-lecture (even here one may experience some “sound” and “camera” problems); but developing some engaging, appealing video-lecture, that motivates students to embrace knowledge and that really contributes to the teaching/learning process, it is not an easy task. Therefore questions like: “What kind of information can induce knowledge construction, in a video-lecture?”, “How can a professor interact in a video-lecture when he is not really there?”, “What are the video-lectures attributes that contribute the most to viewer’s engagement?”, “What seems to be the maximum “time-resistance” of a viewer?”, and many others, raised in our minds when designing video-lectures to a Mathematics MOOC from the scratch. We believe this technological resource can be a powerful tool to enhance students' learning process. Students that were born in digital/image era, respond and react slightly different to outside stimulus, than their teachers/professors ever did or do. In this article we will describe just how we have tried to overcome some of the difficulties and challenges we tackled when producing our own video-math-lectures and in what way, we feel, videos can contribute to the teaching and learning process at higher education level.
Resumo:
Nos últimos anos, o ISEP em colaboração com a FEUP e outras Universidades, criou um simulador realista de condução chamado DRIS, que tem como objectivo ajudar em trabalhos de investigação de diferentes áreas, como engenharia civil, computação gráfica, psicologia, educação, etc. O resultado deste trabalho pretende ajudar os profissionais a analisarem os dados recolhidos em cada experiência de condução, a fim de permitir o estudo das reações do motorista em diferentes obstáculos durante um percurso. O simulador DRIS é constituído por uma tela branca, onde os ambientes de simulação são projetados; um carro real, onde é feita a experiência de condução e quatro câmaras colocadas no carro. Destas quatro câmaras, três estão dentro do carro e uma fora do carro. Cada câmara está focada estrategicamente, em partes críticas da condução: a estrada, o motorista, os pedais e os controles (mudança de marcha, volante, os comandos do limpador, etc). Cada uma das câmaras grava um vídeo, que é guardado em um computador colocado em uma das salas de controlo, dentro do Laboratório de Análise de Tráfego na FEUP. Além disso, um arquivo de texto é guardado no mesmo computador. Este arquivo de texto contém algumas informações sobre a experiência do motorista, como as coordenadas do carro, a velocidade do carro, o tempo, etc O trabalho desta Tese surge com a finalidade de melhorar a forma de os profissionais analisar e interpretar os dados recolhidos a partir de uma experiência de condução no DRIS. Para o efeito, foi criado um sistema de vídeo-‐monitorização, que consiste em uma aplicação de vídeo, que permite a visualização de quatro vídeos simultaneamente, e ler um arquivo de texto, que contém todos os dados recolhidos na experiência. Ambos (vídeo e texto) têm de estar sincronizados com o mesmo tempo de forma a permitir ao utilizador, navegar backward e forward com a ajuda de um cursor. Além disso, como qualquer reprodutor de vídeo básico, contém alguns botões para controlar o status do vídeo (Play, Stop, Pause) e permiti que os profissionais analisem com detalhe os dados dos quatro vídeos. Aproveitando os avanços no desenvolvimento de software, a aplicação foi feita em C++ usando a biblioteca Qt, em ambiente de desenvolvimento integrado do Qt Creator, o que tornou mais fácil a implementação. No fim deste relatório (capítulo 4) é anexado um manual do usuário, a fim de explicar e ajudar os profissionais a usar a aplicação.
Resumo:
Os métodos utilizados pela Medicina moderna no âmbito da Imagem Molecular e na sua capacidade de diagnosticar a partir da “Função do Orgão” em vez da “Morfologia do Orgão”, vieram trazer á componente fundamental desta modalidade da Imagiologia Médica – A Medicina Nuclear – uma importância acrescida, que se tem traduzido num aumento significativo no recurso á sua utilização nas diferentes formas das suas aplicações clínicas. Para além dos aspectos meramente clínicos, que só por si seriam suficientes para ocupar várias dissertações como a presente; a própria natureza desta técnica de imagem, com a sua inerente baixa resolução e tempos longos de aquisição, vieram trazer preocupações acrescidas quanto ás questões relacionadas com a produtividade (nº de estudos a realizar por unidade de tempo); com a qualidade (aumento da resolução da imagem obtida) e, com os níveis de actividade radioactiva injectada nos pacientes (dose de radiação efectiva sobre as populações). Conhecidas que são então as limitações tecnológicas associadas ao desenho dos equipamentos destinados á aquisição de dados em Medicina Nuclear, que apesar dos avanços introduzidos, mantêm mais ou menos inalteráveis os conceitos base de funcionamento de uma Câmara Gama, imaginou-se a alteração significativa dos parâmetros de aquisição (tempo, resolução, actividade), actuando não ao nível das condições técnico-mecânicas dessa aquisição, mas essencialmente ao nível do pós-processamento dos dados adquiridos segundo os métodos tradicionais e que ainda constituem o estado da arte desta modalidade. Este trabalho tem então como objectivo explicar por um lado, com algum pormenor, as bases tecnológicas que desde sempre têm suportado o funcionamento dos sistemas destinados á realização de exames de Medicina Nuclear, mas sobretudo, apresentar as diferenças com os inovadores métodos, que aplicando essencialmente conhecimento (software), permitiram responder ás questões acima levantadas.
Resumo:
A intervenção humana no manuseamento de veículos submarinos operados remotamente (ROVs) é um requisito necessário para garantir o sucesso da missão e a integridade do equipamento. Contudo, a sua teleoperação não é fácil, pelo que a condução assistida destes veículos torna-se relevante. Esta dissertação propõe uma solução para este problema para ROVs de 3DOF (surge, heave e yaw). São propostas duas abordagens distintas – numa primeira propõe-se um sistema de controlo Image Based Visual Servoing (IBVS) tendo em vista a utilização exclusiva de uma câmara (sensor existente neste tipo de sistemas) por forma a melhorar significativamente a teleoperação de um pequeno ROV; na segunda, propõe-se um sistema de controlo cinemático para o plano horizontal do veículo e um algoritmo de uma manobra capaz de dotar o ROV de movimento lateral através de uma trajectória dente-de-serra. Demonstrou-se em cenários de operação real que o sistema proposto na primeira abordagem permite ao operador de um ROV com 3DOF executar tarefas de alguma complexidade (estabilização) apenas através de comandos de alto nível, melhorando assim drasticamente a teleoperação e qualidade de inspecção do veículo em questão. Foi também desenvolvido um simulador do ROV em MATLAB para validação e avaliação das manobras, onde o sistema proposto na segunda abordagem foi validado com sucesso.
Resumo:
The goal of this EPS@ISEP project proposed in the Spring of 2014 was to develop a flapping wing flying robot. The project was embraced by a multinational team composed of four students from different countries and fields of study. The team designed and implemented a robot inspired by a biplane design, constructed from lightweight materials and battery powered. The prototype, called MyBird, was built with a 250 € budget, reuse existing materials as well as low cost solutions. Although the team's initial idea was to build a light radio controlled robot, time limitations along with setbacks involving the required electrical components led to a light but not radio controlled prototype. The team, from the experience gathered, made a number of future improvement suggestions, namely, the addition of radio control and a camera and the adoption of articulated monoplane design instead of the current biplane design for the wings.
Resumo:
Astringency is an organoleptic property of beverages and food products resulting mainly from the interaction of salivary proteins with dietary polyphenols. It is of great importance to consumers, but the only effective way of measuring it involves trained sensorial panellists, providing subjective and expensive responses. Concurrent chemical evaluations try to screen food astringency, by means of polyphenol and protein precipitation procedures, but these are far from the real human astringency sensation where not all polyphenol–protein interactions lead to the occurrence of precipitate. Here, a novel chemical approach that tries to mimic protein–polyphenol interactions in the mouth is presented to evaluate astringency. A protein, acting as a salivary protein, is attached to a solid support to which the polyphenol binds (just as happens when drinking wine), with subsequent colour alteration that is fully independent from the occurrence of precipitate. Employing this simple concept, Bovine Serum Albumin (BSA) was selected as the model salivary protein and used to cover the surface of silica beads. Tannic Acid (TA), employed as the model polyphenol, was allowed to interact with the BSA on the silica support and its adsorption to the protein was detected by reaction with Fe(III) and subsequent colour development. Quantitative data of TA in the samples were extracted by colorimetric or reflectance studies over the solid materials. The analysis was done by taking a regular picture with a digital camera, opening the image file in common software and extracting the colour coordinates from HSL (Hue, Saturation, Lightness) and RGB (Red, Green, Blue) colour model systems; linear ranges were observed from 10.6 to 106.0 μmol L−1. The latter was based on the Kubelka–Munk response, showing a linear gain with concentrations from 0.3 to 10.5 μmol L−1. In either of these two approaches, semi-quantitative estimation of TA was enabled by direct eye comparison. The correlation between the levels of adsorbed TA and the astringency of beverages was tested by using the assay to check the astringency of wines and comparing these to the response of sensorial panellists. Results of the two methods correlated well. The proposed sensor has significant potential as a robust tool for the quantitative/semi-quantitative evaluation of astringency in wine.
Resumo:
It is well-known that ROVs require human intervention to guarantee the success of their assignment, as well as the equipment safety. However, as its teleoperation is quite complex to perform, there is a need for assisted teleoperation. This study aims to take on this challenge by developing vision-based assisted teleoperation maneuvers, since a standard camera is present in any ROV. The proposed approach is a visual servoing solution, that allows the user to select between several standard image processing methods and is applied to a 3-DOF ROV. The most interesting characteristic of the presented system is the exclusive use of the camera data to improve the teleoperation of an underactuated ROV. It is demonstrated through the comparison and evaluation of standard implementations of different vision methods and the execution of simple maneuvers to acquire experimental results, that the teleoperation of a small ROV can be drastically improved without the need to install additional sensors.
Resumo:
Oceans - San Diego, 2013
Resumo:
13th International Conference on Autonomous Robot Systems (Robotica), 2013
Resumo:
The robotics community is concerned with the ability to infer and compare the results from researchers in areas such as vision perception and multi-robot cooperative behavior. To accomplish that task, this paper proposes a real-time indoor visual ground truth system capable of providing accuracy with at least more magnitude than the precision of the algorithm to be evaluated. A multi-camera architecture is proposed under the ROS (Robot Operating System) framework to estimate the 3D position of objects and the implementation and results were contextualized to the Robocup Middle Size League scenario.