28 resultados para Visión por ordenador

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

El desarrollo de la tecnología móvil ha cambiado la forma de interactuar con el entorno, ofreciendo cada día nuevas soluciones con un alto componente visual y de geoposicionamiento. En este sentido los yacimientos arqueológicos y otros lugares históricos o de interés pueden verse altamente beneficiados de la llamada realidad aumentada. En el presente trabajo se ofrece una nueva aplicación de la topografía y fotogrametría lejos de las concepciones clásicas relacionadas con el trabajo en obra, catastral o cartográfico. Se establece un estudio de los distintos avances en visión por ordenador y realidad aumentada para ofrecer una nueva forma de visitar el yacimiento arqueológico de Complutum. El proyecto se resume en los siguientes puntos: - Levantamiento y recreación de los restos del parque arqueológico de Complutum. - Estudio de las distintos avances en la visión por ordenador, así como de las soluciones en Tracking tanto 2D como 3D. - Desarrollo de una aplicación para dispositivos Android que implemente estas funciones para recrear el yacimiento mediante realidad aumentada.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este proyecto se realiza el diseño e implementación de un sistema que detecta anomalías en las entradas de entornos controlados. Para ello, se hace uso de las últimas técnicas en visión por computador y se avisa visual y auditivamente, mediante un sistema hardware que recibe señales del ordenador al que está conectado. Se marca y fotografía, a una o varias personas, que cometen una infracción en las entradas de un establecimiento, vigilado con sistemas de vídeo. Las imágenes se almacenan en las carpetas correspondientes. El sistema diseñado es colaborativo, por lo tanto, las cámaras que intervienen, se comunican entre ellas a través de estructuras de datos con el objetivo de intercambiar información. Además, se utiliza conexión inalámbrica desde un dispositivo móvil para obtener una visión global del entorno desde cualquier lugar del mundo. La aplicación se desarrolla en el entorno MATLAB, que permite un tratamiento de la señal de imagen apropiado para el presente proyecto. Asimismo, se proporciona al usuario una interfaz gráfica con la que interactuar de manera sencilla, evitando así, el cambio de parámetros en la estructura interna del programa cuando se quiere variar el entorno o el tipo de adquisición de datos. El lenguaje que se escoge facilita la ejecución en distintos sistemas operativos, incluyendo Windows o iOS y, de esta manera, se proporciona flexibilidad. ABSTRACT. This project studies the design and implementation of a system that detects any anomalies on the entrances to controlled environments. To this end, it is necessary the use of last techniques in computer vision in order to notify visually and aurally, by a hardware system which receives signs from the computer it is connected to. One or more people that commit an infringement while entering into a secured environment, with video systems, are marked and photographed and those images are stored in their belonging file folder. This is a collaborative design system, therefore, every involved camera communicates among themselves through data structures with the purpose of exchanging information. Furthermore, to obtain a global environment vision from any place in the world it uses a mobile wireless connection. The application is developed in MATLAB environment because it allows an appropriate treatment of the image signal for this project. In addition, the user is given a graphical interface to easily interact, avoiding with this, changing any parameters on the program’s intern structure, when it requires modifying the environment or the data type acquisition. The chosen language eases its execution in different operating systems, including Windows or iOS, providing flexibility.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis se aborda la detección y el seguimiento automático de vehículos mediante técnicas de visión artificial con una cámara monocular embarcada. Este problema ha suscitado un gran interés por parte de la industria automovilística y de la comunidad científica ya que supone el primer paso en aras de la ayuda a la conducción, la prevención de accidentes y, en última instancia, la conducción automática. A pesar de que se le ha dedicado mucho esfuerzo en los últimos años, de momento no se ha encontrado ninguna solución completamente satisfactoria y por lo tanto continúa siendo un tema de investigación abierto. Los principales problemas que plantean la detección y seguimiento mediante visión artificial son la gran variabilidad entre vehículos, un fondo que cambia dinámicamente debido al movimiento de la cámara, y la necesidad de operar en tiempo real. En este contexto, esta tesis propone un marco unificado para la detección y seguimiento de vehículos que afronta los problemas descritos mediante un enfoque estadístico. El marco se compone de tres grandes bloques, i.e., generación de hipótesis, verificación de hipótesis, y seguimiento de vehículos, que se llevan a cabo de manera secuencial. No obstante, se potencia el intercambio de información entre los diferentes bloques con objeto de obtener el máximo grado posible de adaptación a cambios en el entorno y de reducir el coste computacional. Para abordar la primera tarea de generación de hipótesis, se proponen dos métodos complementarios basados respectivamente en el análisis de la apariencia y la geometría de la escena. Para ello resulta especialmente interesante el uso de un dominio transformado en el que se elimina la perspectiva de la imagen original, puesto que este dominio permite una búsqueda rápida dentro de la imagen y por tanto una generación eficiente de hipótesis de localización de los vehículos. Los candidatos finales se obtienen por medio de un marco colaborativo entre el dominio original y el dominio transformado. Para la verificación de hipótesis se adopta un método de aprendizaje supervisado. Así, se evalúan algunos de los métodos de extracción de características más populares y se proponen nuevos descriptores con arreglo al conocimiento de la apariencia de los vehículos. Para evaluar la efectividad en la tarea de clasificación de estos descriptores, y dado que no existen bases de datos públicas que se adapten al problema descrito, se ha generado una nueva base de datos sobre la que se han realizado pruebas masivas. Finalmente, se presenta una metodología para la fusión de los diferentes clasificadores y se plantea una discusión sobre las combinaciones que ofrecen los mejores resultados. El núcleo del marco propuesto está constituido por un método Bayesiano de seguimiento basado en filtros de partículas. Se plantean contribuciones en los tres elementos fundamentales de estos filtros: el algoritmo de inferencia, el modelo dinámico y el modelo de observación. En concreto, se propone el uso de un método de muestreo basado en MCMC que evita el elevado coste computacional de los filtros de partículas tradicionales y por consiguiente permite que el modelado conjunto de múltiples vehículos sea computacionalmente viable. Por otra parte, el dominio transformado mencionado anteriormente permite la definición de un modelo dinámico de velocidad constante ya que se preserva el movimiento suave de los vehículos en autopistas. Por último, se propone un modelo de observación que integra diferentes características. En particular, además de la apariencia de los vehículos, el modelo tiene en cuenta también toda la información recibida de los bloques de procesamiento previos. El método propuesto se ejecuta en tiempo real en un ordenador de propósito general y da unos resultados sobresalientes en comparación con los métodos tradicionales. ABSTRACT This thesis addresses on-road vehicle detection and tracking with a monocular vision system. This problem has attracted the attention of the automotive industry and the research community as it is the first step for driver assistance and collision avoidance systems and for eventual autonomous driving. Although many effort has been devoted to address it in recent years, no satisfactory solution has yet been devised and thus it is an active research issue. The main challenges for vision-based vehicle detection and tracking are the high variability among vehicles, the dynamically changing background due to camera motion and the real-time processing requirement. In this thesis, a unified approach using statistical methods is presented for vehicle detection and tracking that tackles these issues. The approach is divided into three primary tasks, i.e., vehicle hypothesis generation, hypothesis verification, and vehicle tracking, which are performed sequentially. Nevertheless, the exchange of information between processing blocks is fostered so that the maximum degree of adaptation to changes in the environment can be achieved and the computational cost is alleviated. Two complementary strategies are proposed to address the first task, i.e., hypothesis generation, based respectively on appearance and geometry analysis. To this end, the use of a rectified domain in which the perspective is removed from the original image is especially interesting, as it allows for fast image scanning and coarse hypothesis generation. The final vehicle candidates are produced using a collaborative framework between the original and the rectified domains. A supervised classification strategy is adopted for the verification of the hypothesized vehicle locations. In particular, state-of-the-art methods for feature extraction are evaluated and new descriptors are proposed by exploiting the knowledge on vehicle appearance. Due to the lack of appropriate public databases, a new database is generated and the classification performance of the descriptors is extensively tested on it. Finally, a methodology for the fusion of the different classifiers is presented and the best combinations are discussed. The core of the proposed approach is a Bayesian tracking framework using particle filters. Contributions are made on its three key elements: the inference algorithm, the dynamic model and the observation model. In particular, the use of a Markov chain Monte Carlo method is proposed for sampling, which circumvents the exponential complexity increase of traditional particle filters thus making joint multiple vehicle tracking affordable. On the other hand, the aforementioned rectified domain allows for the definition of a constant-velocity dynamic model since it preserves the smooth motion of vehicles in highways. Finally, a multiple-cue observation model is proposed that not only accounts for vehicle appearance but also integrates the available information from the analysis in the previous blocks. The proposed approach is proven to run near real-time in a general purpose PC and to deliver outstanding results compared to traditional methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El EEES ha abierto un canal de comunicación entre el ámbito de la formación y el mundo empresarial buscando mejorar la empleabilidad de los futuros profesionales. En este contexto, la Universidad Politécnica de Madrid está desarrollando un proyecto que busca definir las competencias profesionales genéricas consideradas por el mercado laboral para el área de las ingenierías. Para ello, se han integrado estudios regionales, nacionales e internacionales sobre competencias profesionales, generando un análisis, comparación y valoración de los principales elementos demandados por el mercado laboral complementado con un proceso participativo con expertos del ámbito empresarial. Los resultados obtenidos sugieren la orientación hacia el desarrollo de competencias desde un enfoque holístico, y equilibrado desde los ámbitos técnico, comportamiento y contextual es una clara demanda ante la necesidad de acceder a profesionales “competentes”, posicionándose como elementos estratégicos de cara a potenciar la futura empleabilidad de los alumnos de las diferentes ingenierías. Los elementos identificados en este trabajo son coincidentes con las competencias para de Dirección de Proyectos de IPMA, y concuerdan con las acciones de innovación en las que se integra este modelo de competencias, a nivel de grado como de postgrado, como experiencia para replicar en otros ámbitos de formación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La visión por computador es una parte de la inteligencia artificial que tiene una aplicación industrial muy amplia, desde la detección de piezas defectuosas al control de movimientos de los robots para la fabricación de piezas. En el ámbito aeronáutico, la visión por computador es una herramienta de ayuda a la navegación, pudiendo usarse como complemento al sistema de navegación inercial, como complemento a un sistema de posicionamiento como el GPS, o como sistema de navegación visual autónomo.Este proyecto establece una primera aproximación a los sistemas de visión articial y sus aplicaciones en aeronaves no tripuladas. La aplicación que se desarrollará será la de apoyo al sistema de navegación, mediante una herramienta que a través de las imágenes capturadas por una cámara embarcada, dé la orden al autopiloto para posicionar el aparato frente la pista en la maniobra de aterrizaje.Para poder realizar ese cometido, hay que estudiar las posibilidades y los desarrollos que el mercado ofrece en este campo, así como los esfuerzos investigadores de los diferentes centros de investigación, donde se publican multitud soluciones de visión por computador para la navegación de diferentes vehículos no tripulados, en diferentes entornos. Ese estudio llevará a cabo el proceso de la aplicación de un sistema de visión articial desde su inicio. Para ello, lo primero que se realizará será definir una solución viable dentro de las posibilidades que la literatura permita conocer. Además, se necesitará realizar un estudio de las necesidades del sistema, tanto de hardware como de software, y acudir al mercado para adquirir la opción más adecuada que satisfaga esas necesidades. El siguiente paso es el planteamiento y desarrollo de la aplicación, mediante la defnición de un algoritmo y un programa informático que aplique el algoritmo y analizar los resultados de los ensayos y las simulaciones de la solución. Además, se estudiará una propuesta de integración en una aeronave y la interfaz de la estación de tierra que debe controlar el proceso. Para finalizar, se exponen las conclusiones y los trabajos futuros para continuar la labor de desarrollo de este proyecto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El comportamiento dinámico de los puentes constituye uno de los problemas clásicos de la Ingeniería Civil. Efectivamente, su origen se puede situar en el conocido accidente de Broughton en 1831, cuando un puente de hierro cedió al paso de una formación militar. Desde entonces, han sido innumerables los trabajos a que el tema dió lugar, conducentes en su mayoría a la definición de un coeficiente de mayoración sobre las cargas estáticas. Uno de los organismos más activos en este terreno ha sido la U.I.C.(Union Internationale des Chemins de Fer), a través de la comisión O.R.E. (Office de Recherches et d'Essais). Ya en la actualidad este organismo ha lanzado la Question D-160 referente al estudio de la flecha máxima admisible en relación a la comodidad del pasajero. En una primera etapa se trataba de la obtención de un programa de ordenador que contemplase el problema en su conjunto, lo cual permitiría posteriormente la realización de estudios paramétricos y consecuentemente la eventual mejora de criterios de diseño. Se invitó pues a una serie de centros de Investigación Europeos, entre los cuales se encontraba el equipo de la cátedra de Estructuras de la Escuela Técnica Superior de Ingenieros Industriales. Este artículo pretende dar una visión general del programa realizado, así como de algunos de los resultados obtenidos al pasar uno de los casos de prueba solicitados por la ORE, el puente de Platting, en la República Federal de Alemania.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actual norma ministerial para la determinación de las acciones en puentes de ferrocarril se presta una gran importancia a la fijación de las características dinámicas de la estructura, a partir de las cuales se determina el coeficiente de impacto. Entre los casos peor estudiados se encuentra el de los puentes de vía doble, para los que se recomiennda una frecuencia de cálculo igual a la de un puente de la misma luz y vía simple. En el artículo se pretende analizar esta norma mediante el estudio de las frecuencias de vibración del sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La información que soportan los actuales sistemas PLM/CAD está relacionada principalmente con las fases de diseño de forma y de diseño de detalle y la información relacionada con la fase de diseño conceptual se limita mayoritariamente a la documentación de especificación de requerimientos. Los sistemas comerciales CAD están pensados para soportar la definición geométrica de producto, pero carecen de utilidades que les permitan soportar las etapas iniciales del diseño. Las tareas típicas del diseño conceptual tales como: la captura de necesidades del cliente, la formalización de requerimientos funcionales o la definición de parámetros de diseño, son realizadas en aplicaciones no interoperables con los sistemas CAD. Esta situación causa una discontinuidad en el flujo de información de diseño: necesidades del cliente – requerimientos funcionales – parámetros de diseño – características críticas – parámetros geométricos. Para solventar este aspecto y facilitar el reuso del conocimiento, en este trabajo se propone un marco para desarrollar una aplicación basada en el conocimiento (KBA) e integrar las herramientas de diseño: despliegue de la función de calidad (QFD), diseño axiomático, análisis de modos y efectos de fallo (FMEA) y la metodología MOKA. El objetivo de esta propuesta es ayudar en la integración de aspectos del diseño conceptual en el proceso de diseño, así como su flujo de información asociado dentro de un sistema CAD comercial. Esta tesis propone mejorar la integración de la información de diseño generado en las etapas más tempranas del diseño dentro de un sistema CAD. Esta investigación presenta la metodología para realizar el desarrollo, el entorno de una aplicación informática, el modelado de información de la aplicación propuesta y la conducción de resultados de la implementación de dicha aplicación informática. Dos casos de estudio son llevados a cabo para validar la metodología propuesta y para evaluar el desarrollo de una aplicación con una interfaz de programación dentro del sistema CAD comercial, todo ello para soportar el flujo de información. El primer caso de estudio está relacionado con el desarrollo de un KBA para el diseño de un componente del embrague de fricción de un automóvil a combustión. El segundo caso trata sobre el desarrollo de una aplicación KBA para el diseño de un componente estructural del fuselaje posterior de un avión comercial de pasajeros. Los resultados obtenidos muestran como la implementación del marco integrado en el sistema KBA podría beneficiar al diseñador en una forma práctica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente sección especial está dedicada a la Visión por Computador y Modelado 3D, y está compuesta por seis trabajos que abordan tanto novedosos algoritmos como relevantes aplicaciones. Es necesario destacar que la visión 3D se encuentra en un momento de importante desarrollo, ya que la aparición de nuevos equipos (cámaras ToF, escáneres láseres...) está permitiendo el planteamiento y la resolución de nuevos problemas. Por otro lado, la creación de modelos 3D es una fase fundamental para la resolución de estos problemas. Además de las ya tradicionales aplicaciones industriales, destacan las aportaciones en el guiado y modelado de sistemas autónomos, su interacción con humanos o el reconocimiento y modelado de objetos en entornos complejos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El Reglamento de valoraciones desarrolla el texto refundido de la Ley de Suelo estatal y articula los procedimientos técnicos necesarios para la aplicación de los métodos de que la Ley regula. Este trabajo expone los criterios de valoración en cada situación básica de suelo, realizando una discusión de las soluciones adoptadas, así como un análisis crítico de los problemas que plantea su aplicación práctica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta aportación trata la incompatibilidad del dibujo por ordenador con la configuración del espacio vivencial trazado con la mano como extensión del cuerpo. Aportamos una experiencia docente del dibujar para proyectar en arquitectura. El código digital, como sabemos, es un lenguaje abstracto, originado en la matemática cuyos signos y operaciones no describen cualidades del sujeto. La utilización del software para proyectar implica que el arquitecto depende de un suministrador que le proporciona un medio de cuya estructura es ajeno. El medio para proyectar es un metalenguaje a cuya estructura no tiene acceso. Según Deleuze, el espacio digital sería la máxima subordinación de la mano al ojo, la mano que se ha fundido. Sólo subsiste un dedo para operar la elección binaria visual. La mano es reducida al dedo que apoya sobre el teclado, es la mano informática, es el dedo sin mano. Si el lenguaje digital está totalmente articulado y convencional, sólo opera con modelos, el conflicto se produce en el momento que el dibujo arquitectónico es proyecto de algo que no existe y no representa ningún objeto preexistente...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las infraestructuras de transporte constituyen un elemento fundamental para el desarrollo económico de un país, y por ello resulta esencial establecer modelos de financiación que sean capaces de cubrir las necesidades de gasto en conservación y preserven el valor patrimonial de la red. El presente artículo realiza una revisión de los modelos de financiación de carreteras en el ámbito internacional, centrándose en los esquemas aplicados en Estados Unidos y Europa, y establece un análisis comparado entre los ingresos y gastos generados en el sector de la carretera en estos países. Los resultados muestran que, en general, existe una estrecha relación entre el gasto en conservación y el modelo de financiación adoptado. El artículo también señala que, a pesar del esfuerzo realizado en los últimos años, el gasto en conservación de carreteras en España sigue siendo inferior al de otros países de nuestro entorno. Por ello, es aconsejable la implantación de un mecanismo que garantice una fuente estable de recursos y evite los vaivenes presupuestarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La finalidad de esta ponencia se centra en dar a conocer la importancia de la geometría y, en general, de las Matemáticas en otras áreas del conocimiento y que ponen de manifiesto la importancia de las mismas.