74 resultados para Webcam
Resumo:
A method for fast colour and geometric correction of a tiled display system is presented in this paper. Such kind of displays are a common choice for virtual reality applications and simulators, where a high resolution image is required. They are the cheapest and more flexible alternative for large image generation but they require a precise geometric and colour correction. The purpose of the proposed method is to correct the projection system as fast as possible so in case the system needs to be recalibrated it doesn’t interfere with the normal operation of the simulator or virtual reality application. This technique makes use of a single conventional webcam for both geometric and photometric correction. Some previous assumptions are made, like planar projection surface and negligibleintra-projector colour variation and black-offset levels. If these assumptions hold true, geometric and photometric seamlessness can be achievedfor this kind of display systems. The method described in this paper is scalable for an undefined number of projectors and completely automatic.
Resumo:
La termografía es un método de inspección y diagnóstico basado en la radiación infrarroja que emiten los cuerpos. Permite medir dicha radiación a distancia y sin contacto, obteniendo un termograma o imagen termográfica, objeto de estudio de este proyecto. Todos los cuerpos que se encuentren a una cierta temperatura emiten radiación infrarroja. Sin embargo, para hacer una inspección termográfica hay que tener en cuenta la emisividad de los cuerpos, capacidad que tienen de emitir radiación, ya que ésta no sólo depende de la temperatura del cuerpo, sino también de sus características superficiales. Las herramientas necesarias para conseguir un termograma son principalmente una cámara termográfica y un software que permita su análisis. La cámara percibe la emisión infrarroja de un objeto y lo convierte en una imagen visible, originalmente monocromática. Sin embargo, después es coloreada por la propia cámara o por un software para una interpretación más fácil del termograma. Para obtener estas imágenes termográficas existen varias técnicas, que se diferencian en cómo la energía calorífica se transfiere al cuerpo. Estas técnicas se clasifican en termografía pasiva, activa y vibrotermografía. El método que se utiliza en cada caso depende de las características térmicas del cuerpo, del tipo de defecto a localizar o la resolución espacial de las imágenes, entre otros factores. Para analizar las imágenes y así obtener diagnósticos y detectar defectos, es importante la precisión. Por ello existe un procesado de las imágenes, para minimizar los efectos provocados por causas externas, mejorar la calidad de la imagen y extraer información de las inspecciones realizadas. La termografía es un método de ensayo no destructivo muy flexible y que ofrece muchas ventajas. Por esta razón el campo de aplicación es muy amplio, abarcando desde aplicaciones industriales hasta investigación y desarrollo. Vigilancia y seguridad, ahorro energético, medicina o medio ambiente, son algunos de los campos donde la termografía aportaimportantes beneficios. Este proyecto es un estudio teórico de la termografía, donde se describen detalladamente cada uno de los aspectos mencionados. Concluye con una aplicación práctica, creando una cámara infrarroja a partir de una webcam, y realizando un análisis de las imágenes obtenidas con ella. Con esto se demuestran algunas de las teorías explicadas, así como la posibilidad de reconocer objetos mediante la termografía. Thermography is a method of testing and diagnosis based on the infrared radiation emitted by bodies. It allows to measure this radiation from a distance and with no contact, getting a thermogram or thermal image, object of study of this project. All bodies that are at a certain temperature emit infrared radiation. However, making a thermographic inspection must take into account the emissivity of the body, capability of emitting radiation. This not only depends on the temperature of the body, but also on its surface characteristics. The tools needed to get a thermogram are mainly a thermal imaging camera and software that allows analysis. The camera sees the infrared emission of an object and converts it into a visible image, originally monochrome. However, after it is colored by the camera or software for easier interpretation of thermogram. To obtain these thermal images it exists various techniques, which differ in how heat energy is transferred to the body. These techniques are classified into passive thermography, active and vibrotermografy. The method used in each case depends on the thermal characteristics of the body, the type of defect to locate or spatial resolution of images, among other factors. To analyze the images and obtain diagnoses and defects, accuracy is important. Thus there is a image processing to minimize the effects caused by external causes, improving image quality and extract information from inspections. Thermography is a non-‐destructive test method very flexible and offers many advantages. So the scope is very wide, ranging from industrial applications to research and development.Surveillance and security, energy saving, environmental or medicine are some of the areas where thermography provides significant benefits. This project is a theoretical study of thermography, which describes in detail each of these aspects. It concludes with a practical application, creating an infrared camera from a webcam, and making an analysis of the images obtained with it. This will demonstrate some of the theories explained as well as the ability to recognize objects by thermography.
Resumo:
Actualmente la detección del rostro humano es un tema difícil debido a varios parámetros implicados. Llega a ser de interés cada vez mayor en diversos campos de aplicaciones como en la identificación personal, la interface hombre-máquina, etc. La mayoría de las imágenes del rostro contienen un fondo que se debe eliminar/discriminar para poder así detectar el rostro humano. Así, este proyecto trata el diseño y la implementación de un sistema de detección facial humana, como el primer paso en el proceso, dejando abierto el camino, para en un posible futuro, ampliar este proyecto al siguiente paso, que sería, el Reconocimiento Facial, tema que no trataremos aquí. En la literatura científica, uno de los trabajos más importantes de detección de rostros en tiempo real es el algoritmo de Viola and Jones, que ha sido tras su uso y con las librerías de Open CV, el algoritmo elegido para el desarrollo de este proyecto. A continuación explicaré un breve resumen sobre el funcionamiento de mi aplicación. Mi aplicación puede capturar video en tiempo real y reconocer el rostro que la Webcam captura frente al resto de objetos que se pueden visualizar a través de ella. Para saber que el rostro es detectado, éste es recuadrado en su totalidad y seguido si este mueve. A su vez, si el usuario lo desea, puede guardar la imagen que la cámara esté mostrando, pudiéndola almacenar en cualquier directorio del PC. Además, incluí la opción de poder detectar el rostro humano sobre una imagen fija, cualquiera que tengamos guardada en nuestro PC, siendo mostradas el número de caras detectadas y pudiendo visualizarlas sucesivamente cuantas veces queramos. Para todo ello como bien he mencionado antes, el algoritmo usado para la detección facial es el de Viola and Jones. Este algoritmo se basa en el escaneo de toda la superficie de la imagen en busca del rostro humano, para ello, primero la imagen se transforma a escala de grises y luego se analiza dicha imagen, mostrando como resultado el rostro encuadrado. ABSTRACT Currently the detection of human face is a difficult issue due to various parameters involved. Becomes of increasing interest in various fields of applications such as personal identification, the man-machine interface, etc. Most of the face images contain a fund to be removed / discriminate in order to detect the human face. Thus, this project is the design and implementation of a human face detection system, as the first step in the process, leaving the way open for a possible future, extend this project to the next step would be, Facial Recognition , a topic not covered here. In the literature, one of the most important face detection in real time is the algorithm of Viola and Jones, who has been after use with Open CV libraries, the algorithm chosen for the development of this project. I will explain a brief summary of the performance of my application. My application can capture video in real time and recognize the face that the Webcam Capture compared to other objects that can be viewed through it. To know that the face is detected, it is fully boxed and followed if this move. In turn, if the user may want to save the image that the camera is showing, could store in any directory on your PC. I also included the option to detect the human face on a still image, whatever we have stored in your PC, being shown the number of faces detected and can view them on more times. For all as well I mentioned before, the algorithm used for face detection is that of Viola and Jones. This algorithm is based on scanning the entire surface of the image for the human face, for this, first the image is converted to gray-scale and then analyzed the image, showing results in the face framed.
Resumo:
El presente proyecto trata sobre uno de los campos más problemáticos de la inteligencia artificial, el reconocimiento facial. Algo tan sencillo para las personas como es reconocer una cara conocida se traduce en complejos algoritmos y miles de datos procesados en cuestión de segundos. El proyecto comienza con un estudio del estado del arte de las diversas técnicas de reconocimiento facial, desde las más utilizadas y probadas como el PCA y el LDA, hasta técnicas experimentales que utilizan imágenes térmicas en lugar de las clásicas con luz visible. A continuación, se ha implementado una aplicación en lenguaje C++ que sea capaz de reconocer a personas almacenadas en su base de datos leyendo directamente imágenes desde una webcam. Para realizar la aplicación, se ha utilizado una de las librerías más extendidas en cuanto a procesado de imágenes y visión artificial, OpenCV. Como IDE se ha escogido Visual Studio 2010, que cuenta con una versión gratuita para estudiantes. La técnica escogida para implementar la aplicación es la del PCA ya que es una técnica básica en el reconocimiento facial, y además sirve de base para soluciones mucho más complejas. Se han estudiado los fundamentos matemáticos de la técnica para entender cómo procesa la información y en qué se datos se basa para realizar el reconocimiento. Por último, se ha implementado un algoritmo de testeo para poder conocer la fiabilidad de la aplicación con varias bases de datos de imágenes faciales. De esta forma, se puede comprobar los puntos fuertes y débiles del PCA. ABSTRACT. This project deals with one of the most problematic areas of artificial intelligence, facial recognition. Something so simple for human as to recognize a familiar face becomes into complex algorithms and thousands of data processed in seconds. The project begins with a study of the state of the art of various face recognition techniques, from the most used and tested as PCA and LDA, to experimental techniques that use thermal images instead of the classic visible light images. Next, an application has been implemented in C + + language that is able to recognize people stored in a database reading images directly from a webcam. To make the application, it has used one of the most outstretched libraries in terms of image processing and computer vision, OpenCV. Visual Studio 2010 has been chosen as the IDE, which has a free student version. The technique chosen to implement the software is the PCA because it is a basic technique in face recognition, and also provides a basis for more complex solutions. The mathematical foundations of the technique have been studied to understand how it processes the information and which data are used to do the recognition. Finally, an algorithm for testing has been implemented to know the reliability of the application with multiple databases of facial images. In this way, the strengths and weaknesses of the PCA can be checked.
Resumo:
El objetivo general de este trabajo es el correcto funcionamiento de un sistema de reconocimiento facial compuesto de varios módulos, implementados en distintos lenguajes. Uno de dichos módulos está escrito en Python y se encargarí de determinar el género del rostro o rostros que aparecen en una imagen o en un fotograma de una secuencia de vídeo. El otro módulo, escrito en C++, llevará a cabo el reconocimiento de cada una de las partes de la cara (ojos, nariz, boca) y la orientación hacia la que está posicionada (derecha, izquierda). La primera parte de esta memoria corresponde a la reimplementación de todas las partes de un analizador facial, que constituyen el primer módulo antes mencionado. Estas partes son un analizador, compuesto a su vez por un reconocedor (Tracker) y un procesador (Processor), y una clase visor para poder visualizar los resultados. Por un lado, el reconocedor o "Tracker.es el encargado de encontrar la cara y sus partes, que serán pasadas al procesador o Processor, que analizará la cara obtenida por el reconocedor y determinará su género. Este módulo estaba dise~nado completamente en C y OpenCV 1.0, y ha sido reescrito en Python y OpenCV 2.4. Y en la segunda parte, se explica cómo realizar la comunicación entre el primer módulo escrito en Python y el segundo escrito en C++. Además, se analizarán diferentes herramientas para poder ejecutar código C++ desde programas Python. Dichas herramientas son PyBindGen, Cython y Boost. Dependiendo de las necesidades del programador se contará cuál de ellas es más conveniente utilizar en cada caso. Por último, en el apartado de resultados se puede observar el funcionamiento del sistema con la integración de los dos módulos, y cómo se muestran por pantalla los puntos de interés, el género y la orientación del rostro utilizando imágenes tomadas con una cámara web.---ABSTRACT---The main objective of this document is the proper functioning of a facial recognition system composed of two modules, implemented in diferent languages. One of these modules is written in Python, and his purpose is determining the gender of the face or faces in an image or a frame of a video sequence. The other module is written in C ++ and it will perform the recognition of each of the parts of the face (eyes, nose , mouth), and the head pose (right, left).The first part of this document corresponds to the reimplementacion of all components of a facial analyzer , which constitute the first module that I mentioned before. These parts are an analyzer , composed by a tracke) and a processor, and a viewer to display the results. The tracker function is to find and its parts, which will be passed to the processor, which will analyze the face obtained by the tracker. The processor will determine the face's gender. This module was completely written in C and OpenCV 1.0, and it has been rewritten in Python and OpenCV 2.4. And in the second part, it explains how to comunicate two modules, one of them written in Python and the other one written in C++. Furthermore, it talks about some tools to execute C++ code from Python scripts. The tools are PyBindGen, Cython and Boost. It will tell which one of those tools is better to use depend on the situation. Finally, in the results section it is possible to see how the system works with the integration of the two modules, and how the points of interest, the gender an the head pose are displayed on the screen using images taken from a webcam.
Resumo:
Una introducción a los objetivos y contenidos de la sesión 2 del curso de Bases de Datos dentro del Máster Universitario en Desarrollo de Aplicaciones y Servicios Web de la Universidad de Alicante. Se describe someramente qué se entiende por una transacción y se nombran los niveles de aislamiento en SQL Server. Todo enfocado a la realización de los ejercicios-demostraciones de esos niveles de aislamiento. Ingenuo y con fallos de encuadre e iluminación clamorosos, pero no tiene más ambiciones que la de dejar constancia de algunas de las cosas que se dijeron en clase.
Resumo:
Una introducción a los objetivos y contenidos de la sesión 3 del curso de Bases de Datos dentro del Máster Universitario en Desarrollo de Aplicaciones y Servicios Web de la Universidad de Alicante. El trabajo que permite la calificación de esta primera parte del curso se basa, precisamente, en lo que se describe en este vídeo. La paginación de resultados es una técnica que pretende agilizar el manejo remoto de grandes cantidades de datos. El ejemplo clásico es la navegación por un catálogo de productos. Si es el servidor el que, por el procedimiento que sea, divide la lista completa en páginas y solo envía una de ellas al cliente, estamos ahorrando en tiempo y uso de red. En SQL Server, para esta tarea, es fácil encontrar opiniones que desaconsejan el uso de cursores puesto que se supone que el entorno objetivo es de alta concurrencia. No obstante, se puede usar TOP() y ROW_NUMBER(). La sesión consiste en una serie de ejemplos sobre todas estas herramientas.
Control and Guidance of Low-Cost Robots via Gesture Perception for Monitoring Activities in the Home
Resumo:
This paper describes the development of a low-cost mini-robot that is controlled by visual gestures. The prototype allows a person with disabilities to perform visual inspections indoors and in domestic spaces. Such a device could be used as the operator's eyes obviating the need for him to move about. The robot is equipped with a motorised webcam that is also controlled by visual gestures. This camera is used to monitor tasks in the home using the mini-robot while the operator remains quiet and motionless. The prototype was evaluated through several experiments testing the ability to use the mini-robot’s kinematics and communication systems to make it follow certain paths. The mini-robot can be programmed with specific orders and can be tele-operated by means of 3D hand gestures to enable the operator to perform movements and monitor tasks from a distance.
Improving the care of preterm infants: before, during, and after, stabilisation in the delivery room
Resumo:
Introduction Up to 10% of infants require stabilisation during transition to extrauterine life. Enhanced monitoring of cardiorespiratory parameters during this time may improve stabilisation outcomes. In addition, technology may facilitate improved preparation for delivery room stabilisation as well as NICU procedures, through educational techniques. Aim To improve infant care 1) before birth via improved training, 2) during stabilisation via enhanced physiological monitoring and improved practice, and 3) after delivery, in the neonatal intensive care unit (NICU), via improved procedural care. Methods A multifaceted approach was utilised including; a combination of questionnaire based surveys, mannequin-based investigations, prospective observational investigations, and a randomised controlled trial involving preterm infants less than 32 weeks in the delivery room. Forms of technology utilised included; different types of mannequins including a CO2 producing mannequin, qualitative end tidal CO2 (EtCO2) detectors, a bespoke quantitative EtCO2 detector, and annotated videos of infant stabilisation as well as NICU procedures Results Manual ventilation improved with the use of EtCO2 detection, and was positively assessed by trainees. Quantitative EtCO2 detection in the delivery room is feasible, EtCO2 increased over the first 4 minutes of life in preterm infants, and EtCO2 was higher in preterm infants who were intubated. Current methods of heart rate assessment were found to be unreliable. Electrocardiography (ECG) application warrants further evaluation. Perfusion index (PI) monitoring utilised in the delivery room was feasible. Video recording technology was utilised in several ways. This technology has many potential benefits, including debriefing and coaching in procedural healthcare, and warrants further evaluation. Parents would welcome the introduction of webcams in the NICU. Conclusions I have evaluated new methods of improving infant care before, during, and after stabilisation in the DR. Specifically, I have developed novel educational tools to facilitate training, and evaluated EtCO2, PI, and ECG during infant stabilisation. I have identified barriers in using webcams in the NICU, to now be addressed prior to webcam implementation.
Resumo:
Tutkimuskäyttöön tarkoitettujen rekombinanttiproteiinien tuottaminen fermentoimalla on yleinen menetelmä bioteollisuudessa. Mikrobit kasvatetaan fermentorissa, joka tarjoaa kontrolloidun kasvuympäristön ja sopivat tuotto-olosuhteet halutulle tuotteelle. Eräs fermentointimuodoista on korkeatuottoinen ja pitkäkestoinen panossyöttökasvatus, jossa saavutetaan panoskavatusta merkittävästi korkeampi solutiheys jatkamalla panosvaiheen jälkeen kasvua rajoittavan substraatin syöttöä. Laboratoriomittakaavassa fermentorikasvatusten tilavuudet vaihtelevat litrasta kymmeniin ja niissä kasvatusta seurataan sekä ohjataan joko fermentorista tai tietokoneesta. Tyypillisessä fermentointiprosessissa operaattori tarkkailee muun muassa vaahdonkorkeutta sekä käynnistää pumppuja olosuhteiden muuttuessa. Tällaiset tehtävät ovat teollisen mittakaavan laitteistoissa usein automatisoituja. Diplomityön tarkoituksena oli päivittää kahden Turun yliopiston biotekniikan laboratoriossa sijaitsevan BioFlo® -sarjan pöytäfermentorin MS-DOS -pohjainen tietokoneohjausohjelma nykyaikaiseksi ja lisätä siihen etäseuranta ja -ohjaus. Ohjelmaan oli tarkoitus liittää erillinen optinen solutiheysanturi, jonka lukemien häiriötä haluttiin myös vähentää signaalinkäsittelyllä. Lisäksi vaahdonestoaineen ja indusorin lisäykset haluttiin automatisoida panossyöttökasvatuksessa. Vaahdonkorkeuden havaitsemisen mahdollisuutta konenäön menetelmin haluttiin selvittää, jotta vaahdonestoaineen automaattiset lisäykset voitaisiin toteuttaa nettikameran syötteen perusteella. Koekasvatuksilla osoitettiin päivitetyn ohjausohjelman toimivan panos- ja panossyöttömuodoilla. Uuden käyttöliittymän avulla pystyttiin automatisoimaan panoskasvatuksen lisäykset ja syöttönopeuden muutokset sekä tunnistamaan kasvatusliuosten vaahdonkorkeutta vaahdonestoaineen lisäykseen riittävällä kahden senttimetrin tarkkuudella. Lisäksi käyttöliittymä mahdollisti kasvatuksen ohjauksen ja seurauksen myös etänä. Työssä kehitetty ohjausohjelma julkaistiin avoimena ohjelmana ilman etä- ja nettikameratoimintoja. Ohjelma toimii hyvin BioFlo® -sarjan fermentorien käyttöliittymänä, mutta avoimen lähdekoodin ansiosta kuka tahansa voi hyödyntää ohjelmaa pohjana myös uusissa projekteissa tai muissa fermentorimalleissa.
Resumo:
El objetivo de este trabajo ha sido el diseño y la implementación de una aplicación de escritorio para el control de la asistencia mediante el reconocimiento robusto de fiducials. La idea principal es que este sistema sea fiable y robusto y que nos permita ahorrar tiempo en el proceso de control de la asistencia. Para ello se ha diseñado un sistema que consta de dos partes, por un lado la aplicación de escritorio que haciendo uso de una webcam reconoce los fiducials y marca la asistencia del alumno en un hoja de cálculo de Google Drive y por otro lado una aplicación para dispositivos Android que genera un marcador a partir del NIU de cada alumno.
Resumo:
Gaze estimation has gained interest in recent years for being an important cue to obtain information about the internal cognitive state of humans. Regardless of whether it is the 3D gaze vector or the point of gaze (PoG), gaze estimation has been applied in various fields, such as: human robot interaction, augmented reality, medicine, aviation and automotive. In the latter field, as part of Advanced Driver-Assistance Systems (ADAS), it allows the development of cutting-edge systems capable of mitigating road accidents by monitoring driver distraction. Gaze estimation can be also used to enhance the driving experience, for instance, autonomous driving. It also can improve comfort with augmented reality components capable of being commanded by the driver's eyes. Although, several high-performance real-time inference works already exist, just a few are capable of working with only a RGB camera on computationally constrained devices, such as a microcontroller. This work aims to develop a low-cost, efficient and high-performance embedded system capable of estimating the driver's gaze using deep learning and a RGB camera. The proposed system has achieved near-SOTA performances with about 90% less memory footprint. The capabilities to generalize in unseen environments have been evaluated through a live demonstration, where high performance and near real-time inference were obtained using a webcam and a Raspberry Pi4.