973 resultados para Control visual


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El principal objetivo de esta tesis es dotar a los vehículos aéreos no tripulados (UAVs, por sus siglas en inglés) de una fuente de información adicional basada en visión. Esta fuente de información proviene de cámaras ubicadas a bordo de los vehículos o en el suelo. Con ella se busca que los UAVs realicen tareas de aterrizaje o inspección guiados por visión, especialmente en aquellas situaciones en las que no haya disponibilidad de estimar la posición del vehículo con base en GPS, cuando las estimaciones de GPS no tengan la suficiente precisión requerida por las tareas a realizar, o cuando restricciones de carga de pago impidan añadir sensores a bordo de los vehículos. Esta tesis trata con tres de las principales áreas de la visión por computador: seguimiento visual y estimación visual de la pose (posición y orientación), que a su vez constituyen la base de la tercera, denominada control servo visual, que en nuestra aplicación se enfoca en el empleo de información visual para controlar los UAVs. Al respecto, esta tesis se ocupa de presentar propuestas novedosas que permitan solucionar problemas relativos al seguimiento de objetos mediante cámaras ubicadas a bordo de los UAVs, se ocupa de la estimación de la pose de los UAVs basada en información visual obtenida por cámaras ubicadas en el suelo o a bordo, y también se ocupa de la aplicación de las técnicas propuestas para solucionar diferentes problemas, como aquellos concernientes al seguimiento visual para tareas de reabastecimiento autónomo en vuelo o al aterrizaje basado en visión, entre otros. Las diversas técnicas de visión por computador presentadas en esta tesis se proponen con el fin de solucionar dificultades que suelen presentarse cuando se realizan tareas basadas en visión con UAVs, como las relativas a la obtención, en tiempo real, de estimaciones robustas, o como problemas generados por vibraciones. Los algoritmos propuestos en esta tesis han sido probados con información de imágenes reales obtenidas realizando pruebas on-line y off-line. Diversos mecanismos de evaluación han sido empleados con el propósito de analizar el desempeño de los algoritmos propuestos, entre los que se incluyen datos simulados, imágenes de vuelos reales, estimaciones precisas de posición empleando el sistema VICON y comparaciones con algoritmos del estado del arte. Los resultados obtenidos indican que los algoritmos de visión por computador propuestos tienen un desempeño que es comparable e incluso mejor al de algoritmos que se encuentran en el estado del arte. Los algoritmos propuestos permiten la obtención de estimaciones robustas en tiempo real, lo cual permite su uso en tareas de control visual. El desempeño de estos algoritmos es apropiado para las exigencias de las distintas aplicaciones examinadas: reabastecimiento autónomo en vuelo, aterrizaje y estimación del estado del UAV. Abstract The main objective of this thesis is to provide Unmanned Aerial Vehicles (UAVs) with an additional vision-based source of information extracted by cameras located either on-board or on the ground, in order to allow UAVs to develop visually guided tasks, such as landing or inspection, especially in situations where GPS information is not available, where GPS-based position estimation is not accurate enough for the task to develop, or where payload restrictions do not allow the incorporation of additional sensors on-board. This thesis covers three of the main computer vision areas: visual tracking and visual pose estimation, which are the bases the third one called visual servoing, which, in this work, focuses on using visual information to control UAVs. In this sense, the thesis focuses on presenting novel solutions for solving the tracking problem of objects when using cameras on-board UAVs, on estimating the pose of the UAVs based on the visual information collected by cameras located either on the ground or on-board, and also focuses on applying these proposed techniques for solving different problems, such as visual tracking for aerial refuelling or vision-based landing, among others. The different computer vision techniques presented in this thesis are proposed to solve some of the frequently problems found when addressing vision-based tasks in UAVs, such as obtaining robust vision-based estimations at real-time frame rates, and problems caused by vibrations, or 3D motion. All the proposed algorithms have been tested with real-image data in on-line and off-line tests. Different evaluation mechanisms have been used to analyze the performance of the proposed algorithms, such as simulated data, images from real-flight tests, publicly available datasets, manually generated ground truth data, accurate position estimations using a VICON system and a robotic cell, and comparison with state of the art algorithms. Results show that the proposed computer vision algorithms obtain performances that are comparable to, or even better than, state of the art algorithms, obtaining robust estimations at real-time frame rates. This proves that the proposed techniques are fast enough for vision-based control tasks. Therefore, the performance of the proposed vision algorithms has shown to be of a standard appropriate to the different explored applications: aerial refuelling and landing, and state estimation. It is noteworthy that they have low computational overheads for vision systems.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Aquesta tesi tracta sobre la combinació del control visual i la llum estructurada. El control visual clàssic assumeix que elements visuals poden ser fàcilment extrets de les imatges. Això fa que objectes d'aspecte uniforme o poc texturats no es puguin tenir en compte. En aquesta tesi proposem l'ús de la llum estructurada per dotar d'elements visuals als objectes independentment de la seva aparença. En primer lloc, es presenta un ampli estudi de la llum estructurada, el qual ens permet proposar un nou patró codificat que millora els existents. La resta de la tesi es concentra en el posicionament d'un robot dotat d'una càmara respecte diferents objectes, utilitzant la informació proveïda per la projecció de diferents patrons de llum. Dos configuracions han estat estudiades: quan el projector de llum es troba separat del robot, i quan el projector està embarcat en el robot juntament amb la càmara. Les tècniques proposades en la tesi estan avalades per un ampli estudi analític i validades per resultats experimentals.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The goals of this study were to examine the visual information influence on body sway as a function of self- and object-motion perception and visual information quality. Participants that were aware (object-motion) and unaware (self-motion) of the movement of a moving room were asked to stand upright at five different distances from its frontal wall. The visual information effect on body sway decreased when participants were aware about the sensory manipulation. Moreover, while the visual influence on body sway decreased as the distance increased in the self-motion perception, no effects were observed in the object-motion mode. The overall results indicate that postural control system functioning can be altered by prior knowledge, and adaptation due to changes in sensory quality seem to occur in the self- but not in the object-motion perception mode. (C) 2004 Elsevier B.V.. All rights reserved.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Braking visual control was studied in recreational cyclists through the manipulation of bicycle’s velocity at braking initiation (low, medium, and high) and approaching trajectory (straight and curved) with respect to a stationary obstacle. The hypothesis was that the type of trajectory, exclusively or interacting with initial velocity, would affect time to collision visual information (tau margin) and its fi rst derivative in time (tau-dot), respectively, in the onset and during braking. The results revealed that velocity affected signifi cantly tau margin while tau-dot remained unaltered independently of condition. The type of trajectory clearly did not affect the visual control of braking in cyclists.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

En este proyecto se pretende diseñar un sistema embebido capaz de realizar procesamiento de imágenes y guiado de un hexacóptero. El hexacóptero dispondrá a bordo de una cámara así como las baterías y todo el hardware necesario para realizar el procesamiento de la información visual obtenida e implementar el controlador necesario para permitir su guiado. OpenCV es una biblioteca de primitivas de procesado de imagen que permite crear algoritmos de Visión por Computador de última generación. OpenCV fue desarrollado originalmente por Intel en 1999 para mostrar la capacidad de procesamiento de los micros de Intel, por lo que la mayoría de la biblioteca está optimizada para correr en estos micros, incluyendo las extensiones MMX y SSE. http://en.wikipedia.org/wiki/OpenCV Actualmente es ampliamente utilizada tanto por la comunidad científica como por la industria, para desarrollar nuevos algoritmos para equipos de sobremesa y sobre todo para sistemas empotrados (robots móviles, cámaras inteligentes, sistemas de inspección, sistemas de vigilancia, etc..). Debido a su gran popularidad se han realizado compilaciones de la biblioteca para distintos sistemas operativos tradicionales (Windows, Linux, Mac), para dispositivos móviles (Android, iOS) y para sistemas embebidos basados en distintos tipos de procesadores (ARM principalmente). - iPhone port: http://www.eosgarden.com/en/opensource/opencv-ios/overview/ - Android port: http://opencv.willowgarage.com/wiki/AndroidExperimental Un ejemplo de plataforma embebida es la tarjeta Zedboard (http://www.zedboard.org/), que representa el estado del arte en dispositivos embebidos basados en la arquitectura Cortex de ARM. La tarjeta incluye un procesador Cortex-A9 dual core junto con una gran cantidad de periféricos y posibilidades de conexión a tarjetas de expansión de terceras partes, lo que permite desarrollar aplicaciones en muy distintos campos de la Visión por Computador.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We present a review of perceptual image quality metrics and their application to still image compression. The review describes how image quality metrics can be used to guide an image compression scheme and outlines the advantages, disadvantages and limitations of a number of quality metrics. We examine a broad range of metrics ranging from simple mathematical measures to those which incorporate full perceptual models. We highlight some variation in the models for luminance adaptation and the contrast sensitivity function and discuss what appears to be a lack of a general consensus regarding the models which best describe contrast masking and error summation. We identify how the various perceptual components have been incorporated in quality metrics, and identify a number of psychophysical testing techniques that can be used to validate the metrics. We conclude by illustrating some of the issues discussed throughout the paper with a simple demonstration. (C) 1998 Elsevier Science B.V. All rights reserved.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En una empresa alimentària, hi havia la necessitat de millorar una part del procés de cocció del pernil cuit. El pernil, un cop està envasat i posat en gàbies, està a punt de ser cuit. La forma de coure’l és posar-lo en una banyera a uns 60 graus de temperatura i a mesura d’anarli introduïnt vapor, escalfen l’aigua i couen el producte. Un cop cuit s’ha de refredar abans de posar en cambres frigorífiques. La manera que ho feien, era de transportar les gàbies pesants d’una banyera freda a una altra i així anaven refredant el producte.Era objecte d’aquest projecte, optimitzar aquest procés. És pretén, per tant, dissenyar un nou tanc on tot sigui més senzill i es realitzin el menor nombre de tasques, que es millorin parts, com laseguretat, els riscos laborals, els costos de manteniment i la qualitat de producte, així com la flexibilitat del sistema.Aquest projecte inclou, la selecció de tots els mecanismes actuadors, preactivadors, de control.. Distribuïr-los en tot el tanc a fi de tenir un control i seguretats total. Inclou també el disseny d’un programa automatitzat, on es s’ha seleccionat la CPU que millor ens ha convingut i l’elecció també d’un sistema de control visual i tàctil, com és l’Scada, així com la seva programació. També inclou, tots els connexionats elèctrics

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The correct quantification of blast caused by the fungus Magnaporthe oryzae on wheat (Triticum aestivum) spikes is an important component to understand the development of this disease aimed at its control. Visual quantification based on a diagrammatic scale can be a practical and efficient strategy that has already proven to be useful against several plant pathosystems, including diseases affecting wheat spikes like glume blotch and fusarium head blight. Spikes showing different disease severity values were collected from a wheat field with the aim of elaborating a diagrammatic scale to quantify blast severity on wheat spikes. The spikes were photographed and blast severity was determined by using resources of the software ImageJ. A diagrammatic scale was developed with the following disease severity values: 3.7, 7.5, 21.4, 30.5, 43.8, 57.3, 68.1, 86.0, and 100.0%. An asymptomatic spike was added to the scale. Scale validation was performed by eight people who estimated blast severity by using digitalized images of 40 wheat spikes. The precision and the accuracy of the evaluations varied according to the rater (0.82

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Background: The relationship between normal and tangential force components (grip force - GF and load force - LF, respectively) acting on the digits-object interface during object manipulation reveals neural mechanisms involved in movement control. Here, we examined whether the feedback type provided to the participants during exertion of LF would influence GF-LF coordination and task performance. Methods. Sixteen young (24.7 ±3.8 years-old) volunteers isometrically exerted continuously sinusoidal FZ (vertical component of LF) by pulling a fixed instrumented handle up and relaxing under two feedback conditions: targeting and tracking. In targeting condition, FZ exertion range was determined by horizontal lines representing the upper (10 N) and lower (1 N) targets, with frequency (0.77 or 1.53 Hz) dictated by a metronome. In tracking condition, a sinusoidal template set at similar frequencies and range was presented and should be superposed by the participants' exerted FZ. Task performance was assessed by absolute errors at peaks (AEPeak) and valleys (AEValley) and GF-LF coordination by GF-LF ratios, maximum cross-correlation coefficients (r max), and time lags. Results: The results revealed no effect of feedback and no feedback by frequency interaction on any variable. AE Peak and GF-LF ratio were higher and rmax lower at 1.53 Hz than at 0.77 Hz. Conclusion: These findings indicate that the type of feedback does not influence task performance and GF-LF coordination. Therefore, we recommend the use of tracking tasks when assessing GF-LF coordination during isometric LF exertion in externally fixed instrumented handles because they are easier to understand and provide additional indices (e.g., RMSE) of voluntary force control. © 2013 Pedão et al.; licensee BioMed Central Ltd.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pós-graduação em Agronomia - FEIS

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nagele es un asentamiento urbano situado en el Noordoostpolder, territorio neerlandés ganado al mar. Fue diseñado por arquitectos de los grupos De 8 en Opbouw entre los que destacaron Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. El proyecto se desarrolló entre 1947 y 1956, un periodo de tiempo con formas de proyectar muy ricas en interpretaciones. Los arquitectos pusieron en crisis los planteamientos historicistas de las nuevas poblaciones de los pólderes. Propusieron un nuevo prototipo, una morfología compacta y concéntrica que transmitiría igualdad a una comunidad agrícola, entendida como una sociedad urbana del siglo XX. La administración apoyó la propuesta que convertiría el proyecto en un arriesgado reto por su falta de antecedentes. La vigencia de las formulaciones permanece hoy en día en la ciudad construida, aunque con alteraciones. En los dibujos del proceso se encuentran los principales enunciados teóricos que este trabajo pretende descubrir. El trabajo aborda aspectos no suficientemente explorados, como su relación con el pólder, la evolución de las estrategias proyectivas, la ordenación paisajista y los elementos urbanos. El Noordoostpolder es la culminación de una serie de experiencias multidisciplinares en el reclamo de tierras a gran escala. Se estudia su estructura urbana policéntrica, la parcelación agrícola que origina el proyecto urbano y la vinculación de la vegetación con la infraestructura, proporcionando orientación, protección climática y escala humana, conceptos que impregnan las estrategias del proyecto urbano. La primera fase de la ordenación configuró áreas monofuncionales que respondían a cada una de las cuatro necesidades básicas del método científico de la ciudad higienista. El acontecimiento que marcó el final de la primera fase fue su presentación en el séptimo CIAM de 1949, cuyo título fue Aplicación de la Carta de Atenas. El programa residencial se dividió en clusters organizados en torno a una pradera vecinal central, vinculándose el orden vecinal, urbano y territorial. La segunda fase fue un catalizador de nuevos planteamientos. El proyecto se transformó en un In-between Realm, un escenario teórico donde coexisten fenómenos tradicionalmente antagónicos que Van Eyck denominó Twin Phenomena, convirtiéndose la ciudad en una réplica formal de la ambivalencia de la mente humana. La indefinición espacial no programada en la propuesta anterior se transformó en un conjunto de espacios urbanos, con límites y dimensiones adaptados a la escala humana. El proyecto es anterior a la obra escrita de Van Eyck por lo que estimuló sus enunciados teóricos. Unas ideas también reconocidas en los tres CIAM posteriores en los que también se expuso el proyecto. El diseño paisajista se integra en el proyecto urbano desde sus orígenes. El límite se compone de una barrera boscosa que protege climáticamente, proporciona escala humana y control visual frente a las llanuras infinitas del pólder. Van Eyck sintetizó el proyecto como una habitación verde sin techo, afirmación que dilucida su equivalencia con el de un interior doméstico. Exteriormente la ciudad se convierte en una unidad autónoma del territorio. Interiormente, un sistema jerarquizado de vegetación vinculado a la arquitectura y la infraestructura constituye espacios urbanos de diferentes escalas. La propuesta fue transformada por Boer y Ruys en un nuevo espacio urbano único, no asimilando los conceptos anteriores. El proyecto y construcción de los primeros elementos urbanos consistió en un reparto de tareas a De 8 en Opbouw, hecho que estimula estudiar su relación con el proyecto urbano. La estructura policéntrica organiza las aulas de las escuelas de Van Eyck, las diferentes áreas confesionales del cementerio de Ruys y las unidades residenciales, diseñadas por Stam, Rietveld y Stam-Besse. Los Twin Phenomena alcanzan un acuerdo en el corredor comercial, diseñado por Bakema y Van der Broek. La generación de espacios dentro de otros aparece también en el cementerio, a través de una nueva barrera boscosa y en el sistema de pliegues del muro que configura la iglesia de Bakema y Van der Broek. El proyecto se vincula a un planteamiento holístico, mediante el que el diseño de cada uno de sus elementos tiene en cuenta las estrategias proyectivas del todo del cual forma parte, convirtiéndose, al igual que las obras de De Stijl, en parte de una composición infinita que acerca arte y diseño en la vida cotidiana de la sociedad. La diversidad generacional e ideológica de estos arquitectos convirtió el proyecto en un tablero de juego sobre el que se aplicaron diferentes formas de proyectar la ciudad, ubicando a Nagele en un punto de inflexión del Movimiento Moderno. ABSTRACT The research focuses on the Nagele project, a Dutch urban settlement located in the Noordoostpolder, a territory which was entirely reclaimed from the IJsselmeer lake. It was designed by a group of architects from the De 8 and Opbouw teams, the leading protagonists being Rietveld, Van Eesteren, Van Eyck, Bakema, Stam y Ruys. It was designed from 1947 to 1956, a fruitful period in urban planning. These architects questioned the traditionalist urban design applied to the new populations in the IJsselmeer polders. Facing their principles, the work group proposed a new prototype; a compact and concentric urban pattern to foster equality in a new community of farm labourers, which was recognized by the architects as a twentieth century urban society. The government supported their new proposals. The lack of implementation of the innovatory conceptual statements subjected the project into a high-risk challenge. However, in spite of these difficulties, the basic concepts remain though partially transformed, in the actual city. The project drawings reflect the principle concepts that this work aims to discover. Some approaches that have not been sufficiently studied are tackled in this thesis. Firstly, the project´s relationship with the polder. Secondly, the evolution of projective strategies during the period of urban planning, the landscape design and the design of urban elements. The Noordoostpolder is the culmination of a series of multi-disciplinary experiences in large scale land reclamation, whose polycentric urban structure and agricultural subdivision provide the framework of Nagele. Linking the vegetation to infrastructure fostered orientation, climate protection and human scale; strategies which were repeated, though on a smaller scale, in the actual city. The first phase of the project was composed of mono-functional urban areas which responded to each of the four basic human needs indicated by the scientific method of the functional city. The presentation of the project at the seventh CIAM in 1949 was the event which marked the end of the first phase of the planning. This congress was entitled Implementation of the Athens Charter. The residential program was divided into housing clusters surrounding a central prairie, a pattern which was related to its urban and territorial whole. The second phase of the plan was subjected to a new theoretical approach. The urban planning became an In-between Realm, a theoretical scenario where traditionally antagonistic concepts coexist. Van Eyck named these concepts Twin Phenomena. The city thus conceived of as a counterform of the ambivalence of the human mind where spatial indefinition in the previous proposals was transformed into a Bunch of Places with defined boundaries and dimensions, all of which reflecting human scale. The landscape design was integrated into the urban project from its inception. The limits consist of a green wind-barrier which not only provides climate protection but also provides human scale and visual control towards the unlimited plains of the polder. Van Eyck summarised the project as a green room without a roof. This statement elucidates its equivalence to a domestic interior. Outwardly, the city becomes an autonomous unit on the territory. Inwardly a hierarchical vegetation system is linked to architecture and infrastructure. Together, they configure different scales of urban spaces. The proposal was transformed by Boer and Ruys into a unique urban space without assimilating Van Eyck´s concepts. The study of the Nagele landscape project of Nagele and the writings of Van Eyck verify the fact that many of his theoretical foundations (In-between Realm, Twin Phenomena, Bunch of Places, Right Scale) can be applied not only to architecture and city but also to landscape design. The application of these principles led the Nagele project to become a counterform of Van Eyck´s thinking. The design and construction of the first urban elements involved a distribution of tasks to De 8 en Opbouw, which stimulated their relationship with the urban project. The polycentric structure organised the school classrooms outlined by Van Eyck, the different areas of the cemetery planned by Ruys and the housing clusters designed by Stam, Rietveld and Stam-Besse. The Twin Phenomena concept can be applied in Van der Broek´s shopping corridor. The concept space within another space is also implemented in the cemetery surrounded by a new green barrier, and in the church built by Van der Broek and Bakema, whose spaces are configured by a folding wall. The project takes a holistic approach, which considers the design of each element within the strategies of the whole, where they become parts of an infinite composition, as in the art works of De Stijl fostering art and design to ordinary people´s daily lives. The generational and ideological diversity of these architects turned the project into a game board on which different ways of planning the city were played, obtaining Nagele the distinction of being a turning point of Modernism.