Exploração da Point Cloud Library aplicada à percepção em sistemas autónomos
Contribuinte(s) |
Silva, Eduardo Almeida, José |
---|---|
Data(s) |
10/01/2014
10/01/2014
2012
|
Resumo |
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA). The navigation and interpretation of the environment by autonomous vehicles in unstructured environments continues to be a major challenge nowadays. Sebastian Thrun, in [Thr02], states that the problem of robotic mapping is "acquiring a spatial model of a robot’s environment". In this context, the integration of sensory systems in robotic platforms enabling the construction of a world map of the environment is of utmost importance. The information collected from the data can be interpreted, having applicability in localization, navigation and manipulation of objects tasks. Up until very recently, most robotic systems that performed mapping or Simultaneous Localization And Mapping (SLAM) tasks, used devices like laser rangefinders and stereo cameras. These devices, in addition to being expensive, only provide, in the case of rangefinders, two-dimensional information collected through 2D cross-sections. The paradigm of this type of technology, shifted considerably, with the market launch of RGB-D cameras, developed by PrimeSenseTM and the subsequent launch of the Kinect, by Microsoft R for the XBox 360, in the late 2010. The depth sensor quality, given the low cost nature and its capability for real time data acquisition, is unavoidable, causing the sensor to become instantaneously popular among researchers and enthusiasts. This technological breakthrough has led to several development and human interaction tools with this sensor type, like the Point Cloud Library [RC11] (PCL). This framework aims to provide support for all the common building blocks that a 3D application needs, giving special emphasis to the processing of point clouds of n dimensions obtained from RGB-D cameras, laser scanners, as well as Time-of-Flight cameras or stereo cameras. In this context, is performed in this dissertation, the evaluation and comparison of some of the modules and methods that constitute the PCL library, for the resolution of inherent problems to the building and interpretation of maps, in unstructured indoor environments, using the Kinect data. From this assessment, it is proposed a system architecture that systematizes point clouds registration, corresponding to partial world viewpoints, in a consistent global model. The evaluation results, performed to the PCL library, attest its viability for the solving of the proposed problems. Proof of their viability, are the obtained practical results obtained, from the implementation of the proposed system architecture, which presents interesting performance results, as well as a good prospects of integrating this type of technology and concepts in robotic platforms developed in the Laboratório de Sistemas Autónomos (LSA) scope. |
Identificador | |
Idioma(s) |
por |
Publicador |
Instituto Politécnico do Porto. Instituto Superior de Engenharia do Porto |
Direitos |
openAccess |
Palavras-Chave | #Point Cloud Library #Kinect #Mapeamento #Mapping |
Tipo |
masterThesis |