410 resultados para capteur de profondeur Kinect


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après le séisme qui eut lieu en Haïti le 12 janvier 2010, dont l’épicentre a été localisé non loin de la capitale, Port-au-Prince (25 km en direction sud-est), d’une magnitude Mw 7.0 et à une profondeur de 13 km, le pays s’est retrouvé dans une situation catastrophique et d’extrême pauvreté, avec des graves carences en matière de santé, nutrition, éducation et logement. Les effets du tremblement de terre ont été dévastateurs pour la population : on compte plus de 300.000 morts, presque autant de blessés et 1,3 millions de sans-abri logès dans des campements « provisoires ». Quant aux conséquences matérielles, le séisme a totalement détruit près de 100.000 maisons et endommagé près de 200.000 (source : USGS). Ce tremblement de terre a été le plus fort enregistré dans la zone depuis 1770. De plus le séisme fut perceptible dans des pays voisins comme Cuba, la Jamaïque et la République Dominicaine, où il a provoqué l’alarme et des évacuations préventives. La reconstruction du pays reste un sujet prioritaire pour la coopération internationale. Le présent projet, SISMO-HAITÍ, a été développé dans le but d’apporter la connaissance et l’information nécessaires afin de faciliter la prise de mesures préventives face au risque sismique existant, afin d’éviter qu’un éventuel futur séisme ne déclenche une nouvelle catastrophe. Dans le cas d’Haïti, aucune institution n’était chargée d’assurer une surveillance sismique, mais un contact direct a été établi avec l’Observatoire National de l’Environnement et de la Vulnérabilité (ONEV) en Haïti à travers son directeur Dwinel Belizaire Ing. M. Sc., qui est précisément celui qui a sollicité l’aide qui a motivé la présente proposition. Le but ultime de ce projet est l’étude des mesures d’atténuation du risque élevé qui demeure, contribuant ainsi au développement durable de la région. Dans cette optique, la menace sismique en Haïti a été évaluée, constituant la base sur laquelle on prétend élaborer des critères de conception parasismique pour la reconstruction du pays qui pourront être inclus dans la première version de la norme antisismique, ainsi que le risque sismique à Port-au-Prince, dont les résultats serviront de base pour élaborer les plans d’urgence face à ce risque naturel. Les objectifs spécifiques atteints sont : • Évaluation de l'aléa sismique en Haïti. On en obtient des cartes de différents paramètres de mouvement pour différentes probabilités de dépassement (ce qui suppose connaître la probabilité associée aux mouvements dus à des tremblements futurs). • Évaluation de l'effet local à Port-au-Prince et élaboration d'une carte de microzonage de la ville. • Étude de la vulnérabilité sismique locale à Port-au-Prince. • Estimation du risque sismique à Port-au-Prince. • Mesures d'atténuation du risque et de conception parasismique. Ce rapport résume les activités et les résultats obtenus a cours de l'année 2011 lors de la mise en œuvre de ce projet. Le groupe de travail est une équipe multidisciplinaire composée de chercheurs de différents établissements universitaires et de recherche (Université Polytechnique de Madrid-UPM-, Conseil Supérieur de la Recherche Scientifique (CSIC) ; U. Complutense de Madrid-UCM-, U-UA-Alicante, Almeria-UAL-U., U. Autonome de Saint-Domingue, UASD et Université de Porto Rico Mayagüez--UPRM) experts dans les diverses matières impliquées dans le projet: géologie, sismologie, génie parasismique, architecture et gestion de l'information géographique. Tous les membres de cette équipe ont travaillé ensemble tout au long de l'année, en réalisant des réunions, des ateliers de travail, des vidéoconférences, en plus d'une visite à Port-au-Prince en Juillet 2011 afin de procéder à la première collecte de données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo fin de máster se ha concebido, diseñado e utilizado una interfaz háptica, adecuada para ser utilizada como dispositivo de sustitución sensorial, la cual hemos llamado retina táctil. Por cuanto trata de proporcionar información propia del sentido de la vista a través del sentido del tacto. Durante este trabajo, que fue desarrollado en el grupo de robótica y cibernética CAR UPM-CSIC, se ha trabajado en estrecha colaboración con el departamento de la facultad de psicología de la universidad autónoma de Madrid, los cuales han definido las bases de la información de alto orden, como podrían ser, gradientes de intensidades de vibración, mediante las cuales el individuo llega a tener una mejor comprensión del ambiente. El proyecto maneja teorías psicológicas recientes, como las teorías ecológicas y dinámicas que entienden que la percepción se basa en variables informacionales de alto orden. Ejemplos de tales variables son el flujo óptico, gradientes de movimiento, gradientes de intensidades, cambios en gradientes, etc. Sorprendentemente, nuestra percepción visual es mucho más sensible a variables de alto orden que a variables de bajo orden, lo cual descarta que variables de alto orden se infieran o calculen en base a variables de bajo orden. La hipótesis que maneja la teoría ecológica es que las variables de alto orden se detectan como unidades básicas, sin descomponerlas en variables de bajo orden. Imaginemos el caso de un objeto acercándose, intuitivamente pensaríamos que calculamos la distancia y la velocidad del objeto para determinar el momento en el cual este nos impactaría, ¿pero es este realmente el modo en el que actúa nuestro cerebro?, ¿no seremos capaces en determinar directamente el tiempo de contacto como una variable de alto orden presente en el entorno?, por ejemplo, determinar directamente la relación entre el tamaño del objeto y la tasa de crecimiento. También cabe preguntarse si todas estas suposiciones son válidas para estimulaciónes a través de los receptores táctiles en la piel. El dispositivo desarrollado está conformado por 13 módulos cada uno de los cuales maneja 6 tactores o vibradores, para hacer un total de 78 vibradores (ampliables al agregar módulos adicionales), cada uno de los tactores tiene 8mm de diámetro y proporciona información del flujo óptico asociado al entorno que rodea al usuario a través de información táctil, él mismo puede ser utilizado inalámbricamente a pesar de que el procesamiento de los datos se este realizando en una computadora de mesa, lo cual es muy útil al trabajar con ambientes virtuales. También se presenta la integración de la interfaz con el sistema operativo de robots ROS para usarlo en conjunto con las librerías que han sido desarrolladas para el control de la cámara Microsoft Kinect con la cual se puede obtener una matriz de distancias de puntos en el espacio, permitiendo de esta manera utilizar la interfaz en ambientes reales. Finalmente se realizaron experimentos para comprobar hipótesis sobre la variable de percepción del tiempo de contacto además de verificar el correcto funcionamiento del dispositivo de sustitución sensorial tanto en ambientes reales como en ambientes simulados así como comprobar hipótesis sobre la validéz del uso del flujo vibrotáctil para la determinación del tiempo de contacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La base para realizar cualquier tarea agrícola mediante robots, es la planificación y seguimiento de rutas o trayectorias. Así, el objetivo de esta investigación es desarrollar e implementar algoritmos de seguimiento y planificación (global y local) de trayectorias de robots agrícolas. La planificación global se realizó mediante el algoritmo A* aplicado sobre mapas de cultivo y la planificación local se realizó aplicando A* sobre un mapa 2D obtenido a partir de imágenes 3D de los obstáculos encontrados en el camino. En cuanto el seguimiento de trayectorias, esta se realizó implementando una aproximación numérica de la trayectoria mediante el método de Euler. Los parámetros correspondientes a la dinámica del controlador de la trayectoria del robot fueron obtenidos mediante algoritmos genéticos. El mapa 3D fue generado a partir del sensor Kinect de Microsoft y sus datos procesados usando Matlab 2010b. Los resultados preliminares muestran que es posible implementar estos algoritmos en pequeños robots diseñados para cultivos hilerados. Proveyendo así, una metodología robusta que permite seguir las rutas asignadas con errores inferiores a RMSE=0.1m en trayectorias de 30m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudio presenta una comparativa entre un LIDAR modelo LMS-111 (Sick Ltd.) y una cámara de profundidad de uso doméstico: Kinect (Microsoft Corporation), orientada a determinar las condiciones de uso de uno y otro sensor, así como sus ventajas e inconvenientes cuando son empleados en condiciones de campo, en una explotación agrícola. Para ello se realizaron diversos ensayos en una parcela experimental del CSIC-CAR de Arganda del Rey, España. Para los ensayos ambos sensores fueron instalados en un tractor operado remotamente diseñado y construido en el marco del proyecto europeo RHEA. Dicho tractor realizó dos recorridos diferentes: el primero se efectuó en paralelo a un muro y el segundo paralelo a una hilera de olivos. El primer ensayo se realizó con el propósito de cuantificar la uniformidad de las mediciones de ambos sensores y el segundo para validar los resultados en un cultivo real. Los recorridos se realizaron empleando cuatro marchas diferentes, con el objetivo de determinar si los diferentes regímenes de operación del motor influyen sobre la precisión de los sensores. Los resultados muestran que el LIDAR posee un mayor alcance máximo de medición, pero una resolución menor frente a Kinect, muestran además que el LIDAR puede ser operado a cualquier hora del día y condición meteorológica, mientras que Kinect, no puede operar en exteriores, salvo en horas del día con baja intensidad lumínica. Por otra parte la gran desventaja del LIDAR es su coste, 30 veces más alto que Kinect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo la implementación de un sistema capaz de analizar el movimiento corporal a partir de unos puntos cinemáticos. Estos puntos cinemáticos se obtienen con un programa previo y se captan con la cámara kinect. Para ello el primer paso es realizar un estudio sobre las técnicas y conocimientos existentes relacionados con el movimiento de las personas. Se sabe que Rudolph Laban fue uno de sus mayores exponentes y gracias a sus observaciones se establece una relación entre la personalidad, el estado anímico y la forma de moverse de un individuo. Laban acuñó el término esfuerzo, que hace referencia al modo en que se administra la energía que genera el movimiento y de qué manera se modula en las secuencias, es una manera de describir la intención de las expresiones internas. El esfuerzo se divide en 4 categorías: peso, espacio, tiempo y flujo, y cada una de estas categorías tiene una polaridad denominada elemento de esfuerzo. Con estos 8 elementos de esfuerzo un movimiento queda caracterizado. Para poder cuantificar los citados elementos de esfuerzo se buscan movimientos que representen a alguno de ellos. Los movimientos se graban con la cámara kinect y se guardan sus valores en un archivo csv. Para el procesado de estos datos se establece que el sistema más adecuado es una red neuronal debido a su flexibilidad y capacidad a la hora de procesar entradas no lineales. Para la implementación de la misma se requiere un amplio estudio que incluye: topologías, funciones de activación, tipos de aprendizaje, algoritmos de entrenamiento entre otros. Se decide que la red tenga dos capas ocultas, para mejor procesado de los datos, que sea estática, siga un proceso de cálculo hacia delante (Feedforward) y el algoritmo por el que se rija su aprendizaje sea el de retropropagación (Backpropagation) En una red estática las entradas han de ser valores fijos, es decir, no pueden variar en el tiempo por lo que habrá que implementar un programa intermedio que haga una media aritmética de los valores. Una segunda prueba con la misma red trata de comprobar si sería capaz de reconocer movimientos que estuvieran caracterizados por más de un elemento de esfuerzo. Para ello se vuelven a grabar los movimientos, esta vez en parejas de dos, y el resto del proceso es igual. ABSTRACT. The aim of this project is the implementation of a system able to analyze body movement from cinematic data. This cinematic data was obtained with a previous program. The first step is carrying out a study about the techniques and knowledge existing nowadays related to people movement. It is known that Rudolf Laban was one the greatest exponents of this field and thanks to his observations a relation between personality, mood and the way the person moves was made. Laban coined the term effort, that refers to the way energy generated from a movement is managed and how it is modulated in the sequence, this is a method of describing the inner intention of the person. The effort is divided into 4 categories: weight, space, time and flow, and each of these categories have 2 polarities named elements of effort. These 8 elements typify a movement. We look for movements that are made of these elements so we can quantify them. The movements are recorded with the kinect camera and saved in a csv file. In order to process this data a neural network is chosen owe to its flexibility and capability of processing non-linear inputs. For its implementation it is required a wide study regarding: topology, activation functions, different types of learning methods and training algorithms among others. The neural network for this project will have 2 hidden layers, it will be static and follow a feedforward process ruled by backpropagation. In a static net the inputs must be fixed, this means they cannot vary in time, so we will have to implement an intermediate program to calculate the average of our data. A second test for our net will be checking its ability to recognize more than one effort element in just one movement. In order to do this all the movements are recorded again but this time in pairs, the rest of the process remains the same.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The development of cognitive robots needs a strong “sensorial” support which should allow it to perceive the real world for interacting with it properly. Therefore the development of efficient visual-processing software to be equipped in effective artificial agents is a must. In this project we study and develop a visual-processing software that will work as the “eyes” of a cognitive robot. This software performs a three-dimensional mapping of the robot’s environment, providing it with the essential information required to make proper decisions during its navigation. Due to the complexity of this objective we have adopted the Scrum methodology in order to achieve an agile development process, which has allowed us to correct and improve in a fast way the successive versions of the product. The present project is structured in Sprints, which cover the different stages of the software development based on the requirements imposed by the robot and its real necessities. We have initially explored different commercial devices oriented to the acquisition of the required visual information, adopting the Kinect Sensor camera (Microsoft) as the most suitable option. Later on, we have studied the available software to manage the obtained visual information as well as its integration with the robot’s software, choosing the high-level platform Matlab as the common nexus to join the management of the camera, the management of the robot and the implementation of the behavioral algorithms. During the last stages the software has been developed to include the fundamental functionalities required to process the real environment, such as depth representation, segmentation, and clustering. Finally the software has been optimized to exhibit real-time processing and a suitable performance to fulfill the robot’s requirements during its operation in real situations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Low-cost systems that can obtain a high-quality foreground segmentation almostindependently of the existing illumination conditions for indoor environments are verydesirable, especially for security and surveillance applications. In this paper, a novelforeground segmentation algorithm that uses only a Kinect depth sensor is proposedto satisfy the aforementioned system characteristics. This is achieved by combininga mixture of Gaussians-based background subtraction algorithm with a new Bayesiannetwork that robustly predicts the foreground/background regions between consecutivetime steps. The Bayesian network explicitly exploits the intrinsic characteristics ofthe depth data by means of two dynamic models that estimate the spatial and depthevolution of the foreground/background regions. The most remarkable contribution is thedepth-based dynamic model that predicts the changes in the foreground depth distributionbetween consecutive time steps. This is a key difference with regard to visible imagery,where the color/gray distribution of the foreground is typically assumed to be constant.Experiments carried out on two different depth-based databases demonstrate that theproposed combination of algorithms is able to obtain a more accurate segmentation of theforeground/background than other state-of-the art approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A depth-based face recognition algorithm specially adapted to high range resolution data acquired by the new Microsoft Kinect 2 sensor is presented. A novel descriptor called Depth Local Quantized Pattern descriptor has been designed to make use of the extended range resolution of the new sensor. This descriptor is a substantial modification of the popular Local Binary Pattern algorithm. One of the main contributions is the introduction of a quantification step, increasing its capacity to distinguish different depth patterns. The proposed descriptor has been used to train and test a Support Vector Machine classifier, which has proven to be able to accurately recognize different people faces from a wide range of poses. In addition, a new depth-based face database acquired by the new Kinect 2 sensor have been created and made public to evaluate the proposed face recognition system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado (TFG) tiene el objetivo incorporar el dispositivo Leap Motion [1] en un juego educativo para niños con necesidades educativas especiales para permitirles aprender de una forma divertida mientras disfrutan con los mini juegos que ofrece nuestra aplicación. Está destinado al apoyo del sistema educativo para los niños con necesidades educativas especiales. Debido al público que tenemos como objetivo debemos de tener en cuenta que hay distintos tipos de usuarios según el tipo de discapacidad que tienen. Entre ellas tenemos discapacidad visual, auditiva, cognitiva y motriz. Tenemos distintos mini juegos para facilitar el aprendizaje de las letras y nuevas palabras, los nombres de colores y diferenciarlos y la asociación de conceptos mediante ejemplos sencillos como son ropa, juguetes y comida. Para hacer que la interacción sea más divertida tenemos distintos tipos de dispositivos de interacción: unos comunes como son el teclado y la pantalla táctil y otros más novedosos como son Kinect [2] y Leap Motion que es el que se introducirá en el desarrollo de este Trabajo de Fin de Grado. El otro objetivo de este proyecto es el estudio de los distintos dispositivos de interacción. Se quiere descubrir qué tipo de sistemas de interacción son más sencillos de aprender, cuáles son más intuitivos para los niños, los que les resultan más interesantes permitiendo captar mejor su atención y sus opuestos, es decir, los que son más difíciles de entender, los más monótonos y los más aburridos para ellos.---ABSTRACT---This Final Degree Project (TFG) aims to incorporate the Leap Motion device [1] in an educational game for children with special educational needs to enable them to learn in a funny way while enjoying the mini games that our application offered. It is intended to support the education system for children with special educational needs. Because the public that we have as objective we must take into account that there are different types of users depending on the type of disability they have. Among them we have visual, auditory, cognitive and motor disabilities. We have different mini games to make easier learning of letters and new words, names and distinguish colors and the association of concepts through simple examples such as clothing, toys and food. To make the interaction more fun we have different interaction devices: common such as the keyboard and the touch screen and other more innovative such as Kinect [2] and Leap Motion which is to be introduced in the development of this Final Degree Work. The other objective of this project is to study the various interaction devices. You want to find out what type of interaction systems are easier to learn, which are more intuitive for children, who are more interesting allowing better capture their attention and their opposites, that is, those that are more difficult to understand, the most monotonous and most boring for them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Realidad Aumentada forma parte de múltiples proyectos de investigación desde hace varios años. La unión de la información del mundo real y la información digital ofrece un sinfín de posibilidades. Las más conocidas van orientadas a los juegos pero, gracias a ello, también se pueden implementar Interfaces Naturales. En otras palabras, conseguir que el usuario maneje un dispositivo electrónico con sus propias acciones: movimiento corporal, expresiones faciales, etc. El presente proyecto muestra el desarrollo de la capa de sistema de una Interfaz Natural, Mokey, que permite la simulación de un teclado mediante movimientos corporales del usuario. Con esto, se consigue que cualquier aplicación de un ordenador que requiera el uso de un teclado, pueda ser usada con movimientos corporales, aunque en el momento de su creación no fuese diseñada para ello. La capa de usuario de Mokey es tratada en el proyecto realizado por Carlos Lázaro Basanta. El principal objetivo de Mokey es facilitar el acceso de una tecnología tan presente en la vida de las personas como es el ordenador a los sectores de la población que tienen alguna discapacidad motora o movilidad reducida. Ya que vivimos en una sociedad tan informatizada, es esencial que, si se quiere hablar de inclusión social, se permita el acceso de la actual tecnología a esta parte de la población y no crear nuevas herramientas exclusivas para ellos, que generarían una situación de discriminación, aunque esta no sea intencionada. Debido a esto, es esencial que el diseño de Mokey sea simple e intuitivo, y al mismo tiempo que esté dotado de la suficiente versatilidad, para que el mayor número de personas discapacitadas puedan encontrar una configuración óptima para ellos. En el presente documento, tras exponer las motivaciones de este proyecto, se va a hacer un análisis detallado del estado del arte, tanto de la tecnología directamente implicada, como de otros proyectos similares. Se va prestar especial atención a la cámara Microsoft Kinect, ya que es el hardware que permite a Mokey detectar la captación de movimiento. Tras esto, se va a proceder a una explicación detallada de la Interfaz Natural desarrollada. Se va a prestar especial atención a todos aquellos algoritmos que han sido implementados para la detección del movimiento, así como para la simulación del teclado. Finalmente, se va realizar un análisis exhaustivo del funcionamiento de Mokey con otras aplicaciones. Se va a someter a una batería de pruebas muy amplia que permita determinar su rendimiento en las situaciones más comunes. Del mismo modo, se someterá a otra batería de pruebas destinada a definir su compatibilidad con los diferentes tipos de programas existentes en el mercado. Para una mayor precisión a la hora de analizar los datos, se va a proceder a comparar Mokey con otra herramienta similar, FAAST, pudiendo observar de esta forma las ventajas que tiene una aplicación especialmente pensada para gente discapacitada sobre otra que no tenía este fin. ABSTRACT. During the last few years, Augmented Reality has been an important part of several research projects, as the combination of the real world and the digital information offers a whole new set of possibilities. Among them, one of the most well-known possibilities are related to games by implementing Natural Interfaces, which main objective is to enable the user to handle an electronic device with their own actions, such as corporal movements, facial expressions… The present project shows the development of Mokey, a Natural Interface that simulates a keyboard by user’s corporal movements. Hence, any application that requires the use of a keyboard can be handled with this Natural Interface, even if the application was not designed in that way at the beginning. The main objective of Mokey is to simplify the use of the computer for those people that are handicapped or have some kind of reduced mobility. As our society has been almost completely digitalized, this kind of interfaces are essential to avoid social exclusion and discrimination, even when it is not intentional. Thus, some of the most important requirements of Mokey are its simplicity to use, as well as its versatility. In that way, the number of people that can find an optimal configuration for their particular condition will grow exponentially. After stating the motivations of this project, the present document will provide a detailed state of the art of both the technologies applied and other similar projects, highlighting the Microsoft Kinect camera, as this hardware allows Mokey to detect movements. After that, the document will describe the Natural Interface that has been developed, paying special attention to the algorithms that have been implemented to detect movements and synchronize the keyboard. Finally, the document will provide an exhaustive analysis of Mokey’s functioning with other applications by checking its behavior with a wide set of tests, so as to determine its performance in the most common situations. Likewise, the interface will be checked against another set of tests that will define its compatibility with different softwares that already exist on the market. In order to have better accuracy while analyzing the data, Mokey’s interface will be compared with a similar tool, FAAST, so as to highlight the advantages of designing an application that is specially thought for disabled people.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo consiste en el estudio de la viabilidad en el uso de tres posibles opciones orientadas a la captura de la posición y la postura de personas en entornos reales, así como el diseño e implementación de un prototipo de captura en cada uno de ellos. También se incluye una comparativa con el fin de destacar los pros y los contras de cada solución. Una de las alternativas para llevarlo a cabo consiste en un sistema de tracking óptico por infrarrojos de alta calidad y precisión, como es Optitrack; la segunda se basa en una solución de bajo coste como es el periférico Kinect de Microsoft y la tercera consiste en la combinación de ambos dispositivos para encontrar un equilibrio entre precisión y economía, tomando los puntos fuertes de cada uno para contrarrestar sus debilidades. Uno de los puntos importantes del trabajo es que el uso de los prototipos de captura está orientado a entornos de trabajo reales (en concreto en la captura de los movimientos del personal que trabaja en un quirófano), así que han sido necesarias pruebas para minimizar el efecto de las fuentes de luz en los sistemas de infrarrojos, el estudio de los dispositivos para determinar el número de personas que son capaces de capturar a la vez sin que esto afecte a su rendimiento y el nivel de invasión de los dispositivos en los trabajadores (marcadores para el tracking), además de los mecanismos apropiados para minimizar el impacto de las oclusiones utilizando métodos de interpolación y ayudándose del conocimiento del contexto, las restricciones de movimiento del cuerpo humano y la evolución en el tiempo. Se han desarrollado conocimientos en el funcionamiento y configuración dispositivos como el sistema de captura Optitrack de Natural Point y el sistema de detección de movimiento Kinect desarrollado por Microsoft. También se ha aprendido el funcionamiento del entorno de desarrollo y motor de videojuegos multiplataforma homónimos Unity y del lenguaje de programación C# que utiliza dicho entorno para sus scripts de control, así como los protocolos de comunicación entre los distintos sistemas que componen los prototipos como son VRPN y NatNet.---ABSTRACT---This project is about a viability study in the use of three possible options, oriented towards the capture of the position and view of people in a real environment, as well as the design and implementation of a capturing prototype in each of them. A comparative study is also included, in order to emphasise the pros and cons of each solution. One of the alternatives consists of an optical tracking system via high quality and precision infrareds, like Optitrack; the second is based on a low cost solution, such as Microsoft’s Kinect peripheral, and the third consists on a combination of both devices to find a balance between precision and price, taking the strong points of each of the mechanisms to make up for the weaknesses. One of the important parts of this project is that the use of the capturing prototypes is directed towards real life work situations (specifically towards the capturing of the movements of surgery personnel), so various tests have been necessary in order to minimize the effect of light sources in infrared systems, the study of the devices to determine the number of people that they are capable of capturing simultaneously without affecting their performance and the invasion level of the devices towards the workers (tracking markers), as well as the mechanisms adopted to minimize the impact of the occlusions using interpolation methods and with help of the knowledge of the surroundings, the human movement restrictions and the passing of time. Knowledge has been developed on the functioning and configuration of the devices such as Natural Point’s Optitrak capturing system, and the Kinect movement detection system developed by Microsoft. We have also learned about the operating of the development and incentive environment of multiplatform videogames of namesake Unity and of C# programming language, which uses said environment for its control scripts, as well as communication protocols between the different systems that make up prototypes like VRPN and NatNet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la realización de este trabajo de fin de grado se realizará el diseño y desarrollo de un juego orientado a niños con necesidades específicas de apoyo educativo. Este grupo de usuarios repercute en el diseño de los elementos del juego los cuales han de ser simples, sin distracciones, textos de ayuda claros y bien definidos, alto contraste en los elementos, ayuda textual y visual, selección de colores evitando referencias conocidas (rojo como referencia a peligro); y una serie de patrones más, que se han tenido que tener en cuenta. El juego es compatible con distintos dispositivos (teclado, pantalla táctil y Kinect), por lo que, como parte del análisis previo, se ha tenido que ver el trabajo realizado anteriormente referente a estos dispositivos (un reconocedor de gestos de pantalla táctil y un reconocedor de gestos de Kinect), que realizaron otros alumnos. En este sentido y como parte de este y otros proyectos, se han tenido que mejorar o complementar las implementaciones de estos reconocedores. Además se han tenido que definir los distintos gestos o teclas, que producirán respuestas en el juego. Como parte de la interacción de los usuarios con el juego mediante los distintos dispositivos, el juego se ha diseñado de tal forma, que es capaz de capturar ciertos datos de forma automática (precisión al realizar un gesto en pantalla, realización de un gesto incorrecto, etc.). Además como soporte adicional a la obtención de datos con el juego, se han planteado distintos formularios (según el dispositivo), los cuales aportan información que el juego no es capaz de recoger de forma automática, y que serán capturados por el pedagogo. Toda esta información recogida será parte de un modelo de datos el cual, en un futuro, servirá para analizar el comportamiento de este grupo de usuarios frente a los distintos dispositivos analizados. Viendo sus ventajas y desventajas tanto en tiempo de respuesta, curva de aprendizaje, dificultad de realización de los gestos, etc.---ABSTRACT---This thesis project will showcase the design and development of a game oriented towards children with special educational needs. This group impacts the design of the game elements, which have to be simple and avoid distractions. There must be clear and well defined help text, high contrast in the elements, text and visual help, color selection that avoids known references (red as a reference to danger), and more series of patterns. The game is compatible with various devices (keyboard, touchscreen and Kinect), by which, as part of the preliminary analysis, the work previously conducted by other students concerning these devices was researched (a touch screen gesture recognizer and a Kinect gesture recognizer). In this regard, and as part of this and other projects, the use of these recognizers must be improved or complemented. In addition the different gestures or keys that will produce answers in the game must be defined. As part of the users’ interaction with the game through the various devices, the game is designed in such a way that it is able to capture certain data automatically (precision making a gesture to the screen, making an improper gesture, etc.). Also as additional support to obtain data with the game, different forms were used (depending on the device), which provide information that the game is not able to pick up automatically, and that will be caught by the teacher. The information collected will be part of a data model which, in the future, will serve to analyze the behavior of this user group with the various devices analyzed. Seeing their advantages and disadvantages both in response time, learning curve and difficulty of making gestures, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O interesse em estudar o cultivo das células de inseto está relacionado entre outros usos a sua utilização na produção de biopesticidas. Há muitos anos os pesticidas químicos vêm contribuindo no controle de pragas na agricultura. Entretanto, o uso desses compostos prolongadamente tem resultado na seleção de insetos resistentes e em poluição ambiental. Diante disso, torna-se necessário o desenvolvimento e aprimoramento dos bioinseticidas. No Brasil, o baculovírus Anticarsia gemmatalis multiple nucleopolyhedrovirus (AgMNPV) foi o principal agente de controle biológico da praga da soja Anticarsia gemmatalis. Assim, estudos que viabilizem a produção desses vírus in vitro possibilitariam uma produção mais controlada e de melhor qualidade desses biopesticidas. Neste trabalho, investigou-se a suscetibilidade à infecção por AgMNPV de diferentes linhagens celulares de Sf21 e o crescimento dessas células em diferentes sistemas: cultivos em schotts, em spinner e em biorreator, variando-se a idade do inóculo (IA) e a concentração celular inicial (X0). Constatou-se variação no perfil de infecção das linhagens, sendo as linhagens mais adequadas para a produção de bioinseticida as linhagens de Sf21 denominadas EMBRAPA, UFRN e GibcoG, uma vez que estas apresentaram mais do que 40 % das células com poliedros em cultivos em suspensão, enquanto a linhagem denominada GibcoSF teve menos de 2 % das células infectadas com poliedros. Ao se estudar o efeito do número de subcultivos na morfologia e crescimento celular, foi averiguado um aumento no diâmetro de 10 % e no volume de 26 % das células UFRN em relação às células GibcoSF. Além disso, o crescimento das células UFRN foi 49% menor do que das células GibcoSF. Quando realizado o Delineamento Composto Central Rotacional (DCCR) para se analisar o efeito da IA e a X0 na taxa de crescimento específica máxima (?max) e na concentração celular máxima (Xvmax) em cultivos em schott com células UFRN, obteve-se um modelo empírico. Quando analisadas as variáveis IA e X0 separadamente, não foram encontradas diferenças significativas para as respostas Xvmax e ?max em relação a X0. Para a IA, entretanto, obteve-se os resultados mais satisfatórios para os inóculos com IA de 72 e 96 horas: Xvmax de 5,97.106 cel/mL e 5,99.106 cel/mL, e ?max de 0,70 dia-1 e 0,63 dia-1, respectivamente. Nos cultivos em spinner com células UFRN, foi observada a formação de grumos, o que levou a Xvmax de 2,00.106 cel/mL. No cultivo em biorreator com células UFRN, foi obtido um Xvmax de 6,21.106 cel/mL, ?max de 0,70 dia-1, Qo2 na fase exponencial de 67,3 ± 3,6 .10-18 molO2/cel/s, rendimento de glicose em célula igual a 1,0.109 cel/g de glicose e um rendimento de glutamina em células de 3,0.109 cel/mL. Comprovou-se, portanto, a existência de alterações na infecção entre diferentes linhagens de Sf21; a importância do estado fisiológico da célula nos subcultivos, a ocorrência de mudanças no crescimento celular de acordo com os sistemas de cultivo e o efeito do número de subcultivos na morfologia e crescimento de células Sf21.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Paper submitted to the 43rd International Symposium on Robotics (ISR), Taipei, Taiwan, August 29-31, 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Image Based Visual Servoing (IBVS) is a robotic control scheme based on vision. This scheme uses only the visual information obtained from a camera to guide a robot from any robot pose to a desired one. However, IBVS requires the estimation of different parameters that cannot be obtained directly from the image. These parameters range from the intrinsic camera parameters (which can be obtained from a previous camera calibration), to the measured distance on the optical axis between the camera and visual features, it is the depth. This paper presents a comparative study of the performance of D-IBVS estimating the depth from three different ways using a low cost RGB-D sensor like Kinect. The visual servoing system has been developed over ROS (Robot Operating System), which is a meta-operating system for robots. The experiments prove that the computation of the depth value for each visual feature improves the system performance.