5 resultados para android, ios, multi-piaffatorma, applicazione mobile
em Universidad de Alicante
Resumo:
En este proyecto se pretende diseñar un sistema embebido capaz de realizar procesamiento de imágenes y guiado de un hexacóptero. El hexacóptero dispondrá a bordo de una cámara así como las baterías y todo el hardware necesario para realizar el procesamiento de la información visual obtenida e implementar el controlador necesario para permitir su guiado. OpenCV es una biblioteca de primitivas de procesado de imagen que permite crear algoritmos de Visión por Computador de última generación. OpenCV fue desarrollado originalmente por Intel en 1999 para mostrar la capacidad de procesamiento de los micros de Intel, por lo que la mayoría de la biblioteca está optimizada para correr en estos micros, incluyendo las extensiones MMX y SSE. http://en.wikipedia.org/wiki/OpenCV Actualmente es ampliamente utilizada tanto por la comunidad científica como por la industria, para desarrollar nuevos algoritmos para equipos de sobremesa y sobre todo para sistemas empotrados (robots móviles, cámaras inteligentes, sistemas de inspección, sistemas de vigilancia, etc..). Debido a su gran popularidad se han realizado compilaciones de la biblioteca para distintos sistemas operativos tradicionales (Windows, Linux, Mac), para dispositivos móviles (Android, iOS) y para sistemas embebidos basados en distintos tipos de procesadores (ARM principalmente). - iPhone port: http://www.eosgarden.com/en/opensource/opencv-ios/overview/ - Android port: http://opencv.willowgarage.com/wiki/AndroidExperimental Un ejemplo de plataforma embebida es la tarjeta Zedboard (http://www.zedboard.org/), que representa el estado del arte en dispositivos embebidos basados en la arquitectura Cortex de ARM. La tarjeta incluye un procesador Cortex-A9 dual core junto con una gran cantidad de periféricos y posibilidades de conexión a tarjetas de expansión de terceras partes, lo que permite desarrollar aplicaciones en muy distintos campos de la Visión por Computador.
Resumo:
El objetivo del proyecto consiste en crear un videojuego cuyos niveles se generen a partir del procesamiento de imágenes que el usuario podrá capturar con la cámara del móvil, o que podrá obtener de la galería de fotos del dispositivo. Se realizará una segmentación de la imagen y se extraerán así los elementos a utilizar en el juego, como por ejemplo zonas por las que poder movernos con un personaje, o bien piezas de un puzzle que debamos volver a construir. El videojuego se implementará con el motor Cocos2d-x.
Resumo:
Multi-party voice-over-IP (MVoIP) services provide economical and convenient group communication mechanisms for many emerging applications such as distance collaboration systems, on-line meetings and Internet gaming. In this paper, we present a light peer-to-peer (P2P) protocol to provide MVoIP services on small platforms like mobile phones and PDAs. Unlike other proposals, our solution is fully distributed and self-organizing without requiring specialized servers or IP multicast support.
Resumo:
This paper shows an iOS application to guide visual disabled people in the campus of the University of Alicante by voice indications. The user interface is adapted to visual disabled people, using a bigger visual typography and a bigger area for the tactile buttons. Moreover, the application provides voice indications when users touch any of the elements in the interface, telling them where they are and how they can reach destination.
Resumo:
In this work, we present a multi-camera surveillance system based on the use of self-organizing neural networks to represent events on video. The system processes several tasks in parallel using GPUs (graphic processor units). It addresses multiple vision tasks at various levels, such as segmentation, representation or characterization, analysis and monitoring of the movement. These features allow the construction of a robust representation of the environment and interpret the behavior of mobile agents in the scene. It is also necessary to integrate the vision module into a global system that operates in a complex environment by receiving images from multiple acquisition devices at video frequency. Offering relevant information to higher level systems, monitoring and making decisions in real time, it must accomplish a set of requirements, such as: time constraints, high availability, robustness, high processing speed and re-configurability. We have built a system able to represent and analyze the motion in video acquired by a multi-camera network and to process multi-source data in parallel on a multi-GPU architecture.