17 resultados para visual perception

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes a new method, oriented to image real-time processing, for identifying crop rows in maize fields in the images. The vision system is designed to be installed onboard a mobile agricultural vehicle, that is, submitted to gyros, vibrations, and undesired movements. The images are captured under image perspective, being affected by the above undesired effects. The image processing consists of two main processes: image segmentation and crop row detection. The first one applies a threshold to separate green plants or pixels (crops and weeds) from the rest (soil, stones, and others). It is based on a fuzzy clustering process, which allows obtaining the threshold to be applied during the normal operation process. The crop row detection applies a method based on image perspective projection that searches for maximum accumulation of segmented green pixels along straight alignments. They determine the expected crop lines in the images. The method is robust enough to work under the above-mentioned undesired effects. It is favorably compared against the well-tested Hough transformation for line detection.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of this work is to present a way to emulate some functions of the mammalian visual system and a model to analyze subjective sensations and visual illusions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta investigación se centra en el estudio de la dimensión audiovisual de la arquitectura, como aproximación intersensorial a la aprehensión e ideación del espacio. Poniendo en evidencia la complejidad de la relación hombre-medio, se plantea la necesidad de desarrollar nuevas metodologías y herramientas que tengan en cuenta dicha complejidad y que favorezcan el desarrollo del proyecto. Nos mueve en esta investigación la convicción de que los cambios rápidos y profundos que caracterizan nuestros tiempos en todos los ámbitos, social, económico, político… entrañan inevita-blemente nuevos modos de conocimiento y experimentación del espacio, y por tanto nuevos ejes de investigación. La creciente valoración, en todos los campos del conocimiento, de los aspectos subjetivos y sensoriales, el desarrollo de las tecnologías que ha cambiado completamente nuestras relaciones interpersonales y con el entorno, las nuevas capacidades de análisis, grabación y conservación y manipulación de datos y por ultimo, aunque no menos importante, la puesta a disposición democrá¬tica y global de todo el saber a través de Internet, imponen otra aproximación al hacer, concebir y vivir la arquitectura. Esta investigación se centra en un análisis crítico del estado de la cuestión, construyendo nue¬vas redes de relación entre disciplinas, que permitan plantear la dimensión audiovisual como un nuevo eje de investigación dentro de la arquitectura, poniendo en evidencia la necesidad de desa¬rrollar análisis de forma trasversal e interdisciplinar. Hemos prestado particular atención a la evolución de lo sonoro y su aproximación cualitativa a la arquitectura, mostrando como el sonido, con su capacidad de introducir el tiempo y los aspectos dinámicos (el movimiento, la presencia del cuerpo…), no es simplemente otro canal sensorial en la aprehensión del espacio, ya que su interacción con lo visual genera un espacio-tiempo indisociable, propio, característico de cada momento y lugar. A partir de este planteamiento se ha hecho una revisión metodológica dirigida a utilizar el reco¬rrido como herramienta de análisis, que permita estudiar la relación entre el espacio, la acción y la percepción audio-visual, cruzando para ello los datos correspondientes a la morfología del espacio, con los datos de la experiencia perceptiva individual y con los de los usos colectivos del espacio, utilizándose finalmente el video como un herramienta, no sólo de representación de lo real, sino también como instrumento de análisis, que permite tomar datos (grabaciones audio, video, obser¬vaciones…), aislarlos, estudiarlos, clasificarlos, ordenarlos, y finalmente, restituirlos mediante el montaje. Se ha realizado una primera experimentación “in situ” que ha servido para explorar la aplicación del método, planteando nuevas preguntas y abriendo líneas de análisis para ulteriores investigacio¬nes. ABSTRACT This research is focused on the study of the audiovisual dimension of architecture, as an in¬tersensorial approach to space apprehension and design. It is posed the necessity to develop new methodologies and tools that keep this complexity, as a contribution to the development of a project, by means of putting into evidence the sophistication of the relationship between man and media The research moves us to the conviction that the quick and relevant changes that confer a distinc-tion to these contemporary times all over the social, economic and political environments, involve, unavoidably, new ways of knowledge and experimentation on space, and therefore, new trends of research. The growing valuation of subjective and sensorial aspects all over the fields of the knowledge and the development of the technologies that have changed completely our interpersonal and environmental relationships, the new tools for analysis, recording, conservation and manipulation of data and, last but not least, the setting to democratic and global availability of the whole knowledge through Inter¬net, impose another approach to the making, conception and experience of architecture. This research deals with a critical analysis of the state–of- the-art of the matter, modelling new webs of relationship among disciplines that allow to outline the audiovisual dimension as a new focus of research on architecture, putting evidence into practice as it is necessary to develop any analysis in a transversal and interdisciplinary way. It is paid a special attention to the evolution of sound objects and their qualitative approach to ar¬chitecture, showing how sound, with its capacity to transmit time and dynamic aspects of things (movement, the presence of the body), it is not simply another sensorial channel in the apprehension of space, since its interaction with the visual thing generates an undetachable association of space and time, an specific one of every moment and place. Starting from this position a methodological revision has been made leading to use a walk as a tool for analysis that allows to study the relationship among the space, the action and the audio-visual perception, by means of crossing data corresponding to the morphology of space, with the data of a perceptive experience from the perspective of an individual observer and with those of the collective uses of the space, as video has been finally used as a tool, not only as a representation of the real thing, but also as a tool for analysis that allows to take isolated data (audio recordings, video, obser¬vations), to be studied, classified, and put into their appropriate place, and finally, to restore them by means of a multimedia set up. A first experimentation in situ has been carried out, being useful to explore a method of appli¬cation, outlining new questions and beginning with new ways of analysis for further research.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The scope of the present paper is the derivation of a merit function which predicts the visual perception of LED spot lights. The color uniformity level Usl is described by a linear regression function of the spatial color distribution in the far field. Hereby, the function is derived from four basic functions. They describe the color uniformity of spot lights through different features. The result is a reliable prediction for the perceived color uniformity in spot lights. A human factor experiment was performed to evaluate the visual preferences for colors and patterns. A perceived rank order was derived from the subjects’ answers and compared with the four basic functions. The correlation between the perceived rank order and the basic functions was calculated resulting in the definition of the merit function Usl. The application of this function is shown by a comparison of visual evaluations and measurements of LED retrofit spot lamps. The results enable a prediction of color uniformity levels of simulations and measurements concerning the visual perception. The function provides a possibility to evaluate the far field of spot lights without individual subjective judgment. © (2014) COPYRIGHT Society of Photo-Optical Instrumentation Engineers (SPIE). Downloading of the abstract is permitted for personal use only.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Spotlighting is one illumination field where the application of light emitting diodes (LED) creates many advantages. Commonly, the system for spot lights consists of a LED light engine and collimating secondary optics. Through angular or spatial separated emitted light from the source and imaging optical elements, a non uniform far field appears with colored rings, dots or patterns. Many feasible combinations result in very different spatial color distributions. Several combinations of three multi-chip light sources and secondary optical elements like reflectors and TIR lenses with additional facets or scattering elements were analyzed mainly regarding the color uniformity. They are assessed by the merit function Usl which was derived from human factor experiments and describes the color uniformity based on the visual perception of humans. Furthermore, the optical systems are compared concerning efficiency, peak candela and aspect ratio. Both types of optics differ in the relation between the color uniformity level and other properties. A plain reflector with a slightly color mixing light source performs adequate. The results for the TIR lenses indicate that they need additional elements for good color mixing or blended light source. The most convenient system depends on the requirements of the application.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Video Quality Assessment needs to correspond to human perception. Pixel-based metrics (PSNR or MSE) fail in many circumstances for not taking into account the spatio-temporal property of human's visual perception. In this paper we propose a new pixel-weighted method to improve video quality metrics for artifacts evaluation. The method applies a psychovisual model based on motion, level of detail, pixel location and the appearance of human faces, which approximate the quality to the human eye's response. Subjective tests were developed to adjust the psychovisual model for demonstrating the noticeable improvement of an algorithm when weighting the pixels according to the factors analyzed instead of treating them equally. The analysis developed demonstrates the necessity of models adapted to the specific visualization of contents and the model presents an advance in quality to be applied over sequences when a determined artifact is analyzed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La gran cantidad de datos que se registran diariamente en los sistemas de base de datos de las organizaciones ha generado la necesidad de analizarla. Sin embargo, se enfrentan a la complejidad de procesar enormes volúmenes de datos a través de métodos tradicionales de análisis. Además, dentro de un contexto globalizado y competitivo las organizaciones se mantienen en la búsqueda constante de mejorar sus procesos, para lo cual requieren herramientas que les permitan tomar mejores decisiones. Esto implica estar mejor informado y conocer su historia digital para describir sus procesos y poder anticipar (predecir) eventos no previstos. Estos nuevos requerimientos de análisis de datos ha motivado el desarrollo creciente de proyectos de minería de datos. El proceso de minería de datos busca obtener desde un conjunto masivo de datos, modelos que permitan describir los datos o predecir nuevas instancias en el conjunto. Implica etapas de: preparación de los datos, procesamiento parcial o totalmente automatizado para identificar modelos en los datos, para luego obtener como salida patrones, relaciones o reglas. Esta salida debe significar un nuevo conocimiento para la organización, útil y comprensible para los usuarios finales, y que pueda ser integrado a los procesos para apoyar la toma de decisiones. Sin embargo, la mayor dificultad es justamente lograr que el analista de datos, que interviene en todo este proceso, pueda identificar modelos lo cual es una tarea compleja y muchas veces requiere de la experiencia, no sólo del analista de datos, sino que también del experto en el dominio del problema. Una forma de apoyar el análisis de datos, modelos y patrones es a través de su representación visual, utilizando las capacidades de percepción visual del ser humano, la cual puede detectar patrones con mayor facilidad. Bajo este enfoque, la visualización ha sido utilizada en minería datos, mayormente en el análisis descriptivo de los datos (entrada) y en la presentación de los patrones (salida), dejando limitado este paradigma para el análisis de modelos. El presente documento describe el desarrollo de la Tesis Doctoral denominada “Nuevos Esquemas de Visualizaciones para Mejorar la Comprensibilidad de Modelos de Data Mining”. Esta investigación busca aportar con un enfoque de visualización para apoyar la comprensión de modelos minería de datos, para esto propone la metáfora de modelos visualmente aumentados. ABSTRACT The large amount of data to be recorded daily in the systems database of organizations has generated the need to analyze it. However, faced with the complexity of processing huge volumes of data over traditional methods of analysis. Moreover, in a globalized and competitive environment organizations are kept constantly looking to improve their processes, which require tools that allow them to make better decisions. This involves being bettered informed and knows your digital story to describe its processes and to anticipate (predict) unanticipated events. These new requirements of data analysis, has led to the increasing development of data-mining projects. The data-mining process seeks to obtain from a massive data set, models to describe the data or predict new instances in the set. It involves steps of data preparation, partially or fully automated processing to identify patterns in the data, and then get output patterns, relationships or rules. This output must mean new knowledge for the organization, useful and understandable for end users, and can be integrated into the process to support decision-making. However, the biggest challenge is just getting the data analyst involved in this process, which can identify models is complex and often requires experience not only of the data analyst, but also the expert in the problem domain. One way to support the analysis of the data, models and patterns, is through its visual representation, i.e., using the capabilities of human visual perception, which can detect patterns easily in any context. Under this approach, the visualization has been used in data mining, mostly in exploratory data analysis (input) and the presentation of the patterns (output), leaving limited this paradigm for analyzing models. This document describes the development of the doctoral thesis entitled "New Visualizations Schemes to Improve Understandability of Data-Mining Models". This research aims to provide a visualization approach to support understanding of data mining models for this proposed metaphor visually enhanced models.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A través de esta tesis se busca aportar un análisis de los elementos peatonales que cubren las necesidades y las infraestructuras de apoyo al peatón, siendo un campo poco desarrollado en nuestro país a diferencia de otros como Dinamarca, Reino Unido, Alemania y Holanda, donde las actuaciones peatonales ejecutadas son tradicionales y muy exitosas. Se trata por tanto de un tema poco estudiado pero que adquiere singular importancia en estos años de búsqueda de nuevos modelos urbanos que eviten el derroche de recursos, y avancen hacia formas de movilidad más adecuadas a un mundo limitado y vulnerable. La investigación tiene un carácter eminentemente descriptivo cuyo principal valor es documentar y analizar sistemáticamente una realidad poco conocida, aportándose datos para entender el origen y desarrollo de las actuaciones peatonales. El propósito es ayudar a cimentar este campo en nuestro país, definiendo con precisión el estado de la cuestión geográficamente y dejando para un futuro una cartografía temática completa. El objeto general es estudiar y comprender los elementos peatonales de un número limitado de ciudades medias españolas, marcándose como objetivos específicos los siguientes: - Identificar y describir los principales elementos que conforman la red peatonal de las ciudades. ‐ Estudiar las tipologías espaciales dominantes, sus características y orígenes, pudiendo distinguir de un lado, las desarrolladas en la ciudad consolidada, como las actuaciones en los cascos antiguos; y por otro, las ejecutadas en la ciudad nueva a través de fórmulas arquitectónicas generalmente residenciales con espacios peatonales adjuntos. ‐ Analizar los referidos elementos para comprobar si han conformado redes de uso peatonal, si se han constituido articulando la ciudad como en el caso de los ejes lineales en las ciudades con río o mar, o si han influenciado el carácter del entorno en el que se han realizado, centrando el interés en los cascos históricos peatonalizados. ‐ Comprobar si hay actuaciones complementarias a los procesos de urbanización y mejora urbanística, así como la aprobación de ayudas y subvenciones para afrontar las mismas. ‐ Finalmente, describir y evaluar los procesos y procedimientos mediante los que se produce la peatonalización de determinadas áreas urbanas, los orígenes, los instrumentos y fechas de su puesta en marcha, aportando una cronología peatonal. La metodología comienza con la acotación de 22 ciudades españolas, capitales de provincia con una población entre 100.000 y 500.000 habitantes según los datos del INE del año 2009. La distribución es equilibrada con la selección de ciudades de costa, de interior, con río/ría, con carácter patrimonial, ciudades en islas, etc. El análisis de los elementos peatonales de estas urbes se realiza gracias a la gran resolución de las bases cartográficas públicas y privadas que hay en la actualidad en internet, especialmente con el uso de las herramientas de Google Earth y Google Maps en su versión “street view”, softwares que permiten un paseo virtual de cada ciudad detallándose con gran precisión las actuaciones peatonales. Las ciudades elegidas son: ‐ 11 ciudades costeras: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián y Tarragona. ‐ 11 ciudades de interior: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid y Vitoria. Finalmente, por tener los porcentajes mas elevados de las áreas peatonales de sus casco histórico, se eligen 3 casos de ciudades representativas para un desarrollo peatonal en profundidad, seleccionándose Burgos, San Sebastián y Pamplona. Otros aspectos metodológicos interesantes a destacar, es la extensa documentación adquirida a través de las fuentes de Internet, sobre todo a la hora de desarrollar el último capítulo “Procesos de peatonalización de las ciudades españolas” centrado en las 3 ciudades elegidas. Se consulta las hemerotecas de periódicos locales, los boletines oficiales, las actas de los plenos de los Ayuntamientos y los documentos de planificación (Planes Generales, Planes Especiales, Planes y Proyectos Municipales, Planes de Movilidad), adquiriéndose una precisa información en cuanto a la cronología de las fechas y extensión del trabajo. Se complementa la metodología con las entrevistas a actores claves en el proceso peatonal, como el personal técnico de los Ayuntamiento y los técnicos redactores de los proyectos; y con la colaboración directa de los técnicos de los consistorios de las 3 ciudades seleccionadas, aportando todo tipo de información demandada. En la tesis, se introduce los elementos peatonales mediante el estudio de los espacios peatonales y los procesos de peatonalización existentes, a través del análisis de la literatura consultada aportándose información valiosa en cuanto a la definición de los modelos peatonales, exponiéndose una breve historia de las peatonalizaciones. Destacan las publicaciones de los expertos europeos en la materia como los autores Carmen Hass-Klau, Rolf Monheim, Rob Krier y Collin Buchanan. En España, las actuaciones peatonales fueron tardías en el tiempo en comparación con el resto de Europa, con casi 40 años de retraso. Las referencias bibliográficas españolas en esta materia son escasas siendo las mas significativas las realizadas por Alfonso Sanz y por el profesor Julio Pozueta destacando una de sus últimas publicaciones “La ciudad paseable” describiéndose los elementos peatonales existentes en las ciudades, sirviendo como modelo y ejemplo para esta investigación. En base a lo anterior, se definen los elementos peatonales como aquellos espacios públicos libres de edificación que, por sus características y diseño, garantizan un confortable uso estancial, de tránsito peatonal y están expresamente reservados para ello. En la tesis se detectan y se especifican los siguientes elementos peatonales: las calles y plazas peatonales, las aceras y bulevares de una anchura superior a 8 metros, los paseos peatonales, los elementos de paso (tradicionales y mecánicos), espacios peatonales ligados a nuevas áreas residenciales, los soportales y pasajes peatonales con una anchura mínima de 4 metros, recintos feriales, espacios libres y zonas verdes y parques. Para cada una de las 22 ciudades seleccionadas se realiza un exhaustivo inventario de los anteriores elementos a través de fichas, aportando un gran número de proyectos individuales ejecutados en cada urbe. Esta información se recoge gráficamente en 2 fotoplanos, conformándose como herramientas fundamentales para esta investigación. El Fotoplano 1 se hace sobre la base de la ciudad del Google Earth diferenciándose las áreas peatonales y las zonas verdes. En el Fotoplano 2, y con el soporte anterior, se distinguen las tipologías persistentes y dominantes como son los grandes ejes peatonales, las redes peatonales locales y los elementos peatonales singulares. Finalmente, a partir de los 2 fotoplanos, se realiza la denominada “Huella peatonal” que destaca por su atractivo y pregnancia, algo de lo que el campo de lo peatonal es muy útil. A través de la huella se obtiene una rápida información al tener el plano dos colores, color naranja para lo peatonal (formado por las áreas peatonales y zonas verdes) y color negro para el resto el resto no peatonal. Toda esta documentación gráfica y descriptiva de los elementos peatonales de cada ciudad, queda ampliamente recogida en el Anexo de la tesis. La “Huella peatonal” se considera como el plano básico en la investigación obteniendo una percepción rápida, clara y visual del espacio peatonal de cada ciudad. Se arroja información morfológica con respecto a la distribución espacial, articulación, equilibrio, modulación, cohesión, concentración peatonal, etc. de cada una de las ciudades seleccionadas. A través de la huella se resuelve muchos de las cuestiones enmarcadas como objetivos de la tesis, comprobándose de forma general, que los elementos peatonales dentro de la trama urbana están desarticulados ya que no hay una estructura que module la ciudad como un conjunto cohesionado. Se localizan pequeñas redes conectadas entre sí, que de forma heterogénea, están dispersas por la ciudad. Se verifica que los elementos peatonales con mayor concentración y presencia en las ciudades analizadas son los ejes peatonales, los cascos históricos y los elementos peatonales en las nuevas áreas residenciales. En la investigación, además de estos 3 elementos mencionados, se analiza con mayor profundidad otros tipos que destacan por su persistencia y repetición en la “Huella peatonal” de cada una de las 22 ciudades, como son las plazas peatonales, los soportales y los elementos singulares peatonales: espacios tradicionales (recintos feriales, pasajes, puentes históricos), nuevos elementos peatonales (pasarelas peatonales, elementos mecánicos de paso), áreas peatonales entorno a edificios culturales y otros casos como los consistentes en la recuperación y transformación de edificaciones y construcciones urbanas de diferente uso y tipología, en nuevas áreas peatonales. Se aporta luz sobre su definición, localización, cronología, proporción, presencia y génesis, facilitando resultados de cada uno de ellos. De forma paralela, se obtiene información de índole cuantitativa a través de las mediciones de la huella, obteniéndose datos y porcentajes de extensión de la ciudad, de las zonas peatonales y de las zonas verdes, de los cascos históricos y de sus superficies peatonales, de los metros lineales de dichos cascos históricos y de sus calles peatonales. Se proporcionan ratios e índices que se consideran fundamentales para una mejor comprensión peatonal de cada urbe. Se establece una clasificación de las ciudades en cada uno de los ámbitos descritos, destacando las ciudades de Pamplona, San Sebastián y Burgos por arrojar las cifras peatonales más positivas encabezando la mayoría de las tablas clasificatorias. La peor ciudad valorada es Alicante, seguida según criterio, de Almería, Palma de Mallorca y Las Palmas de GC. En el capítulo final de la investigación, se eligen las ciudades de Burgos, San Sebastián y Pamplona como casos de estudio representativos. El objetivo es obtener un conocimiento más preciso en cuanto a su origen, cronología y procesos de las peatonalizaciones. Cada ciudad se compone de un cuadro cronológicos por etapas, desarrollándose de forma exhaustiva cada una de ellas, enunciadas normalmente, como instrumentos de planeamiento o proyectos de urbanización, acompañadas de los planos de las actuaciones peatonales. Al final de cada etapa se aportan datos de las cifras de las peatonalizaciones que se van realizando, con un cuadro numérico de localizaciones, superficie peatonal, superficie reurbanizada, longitud peatonal y el grado de peatonalización del casco histórico, además de los datos acumulados por etapa. De las conclusiones cruzadas de estas 3 ciudades, destaca la comprobación de la tendencia de ir peatonalizando los centros antiguos llegando incluso al 100% de calles peatonales en el caso de San Sebastián. No obstante, es difícil confirmar si el objetivo es una peatonalización global de los cascos, ya que son muchas las variables que afectan e influyen en el proceso peatonal de cada ciudad. Se coteja adicionalmente cómo se extiende la cultura peatonal desde el interior al exterior, mas allá de los cascos históricos hacia los ensanches próximos. En cuanto al origen de las peatonalizaciones, se concluye que no hay una concepción inicial y teórica marcada, a partir de la cual se va desarrollando la trama peatonal de cada ciudad. Se puede afirmar que los procesos peatonales ejecutados son variados y de diversa índole, sin poder precisar un hecho como causa principal. Según el momento y las circunstancias, las peatonalizaciones responden a distintas iniciativas promovidas por los comerciantes, por las administraciones locales o por los técnicos de planeamiento, con sus expertas aportaciones en los planes. Estos tres agentes actúan como impulsores de proyectos individuales peatonales que se van solapando en el tiempo. Como punto final de la tesis, se propone una serie de nuevas líneas de investigación que pueden servir como estudio adicional y complementario, respondiendo a aspectos tan relevantes como cuestiones de índole económica, social y de movilidad, fuertemente ligadas a las peatonalizaciones, tal y como se demuestra en la literatura consultada. ABSTRACT This thesis aims to analyse the pedestrian elements dealing with the needs and infrastructures that support pedestrians, as this is a field that is little developed in our country, in comparison to other regions such as Denmark, the United Kingdom, Germany and the Netherlands, where the pedestrian actions implemented are traditional and highly successful. Therefore, even though little research has been done about this topic, this field is increasingly important throughout these years of search for urban models intended to prevent the waste of resources and to develop new mobility ways, more adapted to a limited, vulnerable world. This research is essentially descriptive and it mainly aims to document and systematically analysed a scarcely known reality by providing data in order to understand the origin and development of pedestrian actions. This thesis intends to lay the foundations of this field in Spain, accurately defining the state of the art from a geographical point of view and preparing a full thematic map that may be used in the future. The overall aim is to study and understand the pedestrian elements of a limited number of Spanish medium-size cities, establishing the following specific goals: - To identify and describe the main elements comprising cities' pedestrian networks. - To study of special predominant typologies, their features and origins, with the possibility to, on the one hand, make a difference between the typologies developed in well-established cities, such as the actions in historic quarters, and, on the other hand, those implemented in new cities through generally residential architectural formulae with adjoining pedestrian areas. - To analyse the said elements in order to check whether they have resulted in pedestrian-use networks, whether they have been established by organising the city, such as the linear axes in coastal and riverside cities, or whether they have had an impact on the character of the areas where these elements have been implemented, focusing on pedestrian historic quarters. - Check whether there are actions supplementary to the urban development and urban improvement processes, as well as the approval of financial support and subventions to deal with these actions. - Finally, to describe and assess the processes and procedures by which the pedestrianisation of certain urban areas is carried out, the origins, the instruments and the date of their implementation, providing a pedestrian timeline. The methodology starts by defining 22 Spanish cities, province capitals with a population ranging from 100,000 to 500,000 inhabitants, according to the data recorded by the Spanish Statistics Institute (INE) in 2009. The distribution of coastal, riverside and interior cities, as well as of patrimonial cities and cities in islands, etc. is well balanced. The analysis of the pedestrian elements of these cities is made with the great resolution of the public and private map databases that can be accessed on the Internet, especially using the "street-view" version of tools such as Google Earth and Google Maps, software applications that allow to go for a virtual walk in each city, providing highly precise details about the pedestrian actions. The following cities have been chosen: ‐ 11 coastal cities: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián and Tarragona. ‐ 11 interior cities: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid and Vitoria. Finally, as they have the highest percentages regarding the pedestrian areas found in the historic quarters, 3 cities representing a deep pedestrian development have been chosen: Burgos, San Sebastián and Pamplona. Other significant methodological aspects are the many documents found from online sources, especially when preparing the last chapter: “Processes for the pedestrianisation of Spanish cities”, which focuses on the 3 cities chosen. Local newspaper and periodical libraries, official gazettes, the minutes of plenary sessions of councils and the zoning regulation documents (General Zoning Plans, Special Zoning Plans, Municipal Plans and Projects, Mobility Plans, etc.) have been consulted, obtaining accurate information regarding the timeline and the extension of the works carried out. The methodology is supplemented by interviews with key players in the pedestrianisation process, such as the technical staff in councils and the officers drafting and designing the projects, as well as with the direct collaboration by the officers of the councils of the 3 cities chosen, who provided all the information requested. The thesis introduces the pedestrian elements by studying pedestrian areas and existing pedestrianisation processes through the analysis of the literature consulted, providing valuable information for the definition of pedestrian models and showing a brief history and background of the pedestrianisation process. Remarkable papers published by some European experts in the field, such as Carmen Hass-Klau, Rolf Monheim and Collin Buchanan, are covered in the thesis. In Spain, the pedestrianisation actions were late in time in comparison to the rest of Europe, with at least 40 years of delay. The Spanish literature references in this field are limited. The most significant papers are those published by Alfonso Sanz and by Professor Julio Pozueta, with a special mention of one of his last works "La ciudad paseable" (The Walkable City), which describes the pedestrian elements found in the cities and is used a model and an example for this research. Based on the elements above, pedestrian elements are defined as those construction-free public areas that, due to their features and design, ensure the comfortable, convenient use of the spaces, characterised by pedestrian traffic and specifically reserved for this purpose. The thesis detects and specifies the following pedestrian elements: pedestrian streets and squares, pavements (sidewalks) and boulevards with a width exceeding 8 metres, pedestrian promenades, crossing elements (traditional and mechanical), pedestrian spaces linked to new residential areas, colonnades and pedestrian passages or narrow streets with a minimum width of 4 metres, exhibition sites, free spaces and green areas and parks. For each of the 22 cities chosen, a thorough inventory of the elements mentioned above has been made by using worksheets, providing a significant number of individual projects developed in each city. This information is graphically collected and displayed on 2 photomaps, resulting in tools essential for this research. Photomap 1 is made based on the city displayed by Google Earth, making a difference between pedestrian areas and green areas. On Photomap 2, using the tool mentioned above, a difference can be made between persistent and predominant typologies, such as the big pedestrian axes, the local pedestrian networks and singular pedestrian elements. Finally, the 2 photomaps are used in order to establish the so-called "pedestrian footprint", which is highlighted by its attractiveness and appeal, concepts for which the pedestrian field is very useful. With the pedestrian footprint, quick information can be obtained, since the map shows two colours: orange for pedestrian elements (made up of pedestrian areas and green areas) and black for the other non-pedestrian elements. A significant part of these graphic, descriptive documents about each city's pedestrian elements can be found in the thesis appendix. The "Pedestrian Footprint" is regarded in the research as the basic map, obtaining a quick, clear and visual perception of each city's pedestrian space. This footprint provides morphological information regarding the space distribution, the organisation, the balance, the modulation, the cohesion, the pedestrian concentration, etc. in each of the cities chosen. The pedestrian footprint helps solve many of the questions established as the thesis goals, proving that, in general, the pedestrian elements are not organised in the urban plot, as there is no structure modulating the city as a properly linked set of elements. Small networks linked to each other and heterogeneously scattered all over the city are found. It has been verified that the pedestrian elements with the highest concentration and presence in the cities analysed are the pedestrian axes, the historic quarters and the pedestrian elements found in the new residential areas. Besides these 3 elements mentioned, the research analyses in depth other types that are remarkable due to their persistence and repetition in the "Pedestrian Footprint" of each of the 22 cities, such as the pedestrian squares, the colonnades and the singular pedestrian elements: traditional spaces (exhibition sites, passages, historic bridges), new pedestrian elements (pedestrian footbridges, mechanical crossing elements), pedestrian areas around cultural buildings and other cases such as those consisting of recovering and transforming building and urban constructions, intended for a wide range of purposes and of different types, into new pedestrian areas. This work puts light on the definition, location, timeline, proportion, presence and origin, providing results for each of these concepts. At the same time, quantitative information is obtained by measuring the footprint, getting data and percentages on the size of the city, the pedestrian areas and the green areas, the historic quarters and the pedestrian zones, the linear metres of such historic quarters and pedestrian streets. The footprint also provides ratios and rates that are considered as essential in order to better understand the pedestrian elements of each city. A classification of cities is established for each of the areas described, highlighting the cities of Pamplona, San Sebastián and Burgos, as they provide the most positive pedestrian figures and lead most of the classification tables or rankings. According to the criteria considered, the city with the worst values is Alicante, followed by Almería, Palma de Mallorca and Las Palmas de Gran Canaria. In the final chapter in the thesis, the cities of Burgos, San Sebastián and Pamplona are chosen as representative study cases. The aim is to gain more accurate knowledge regarding the pedestrianisation origin, timeline and processes. Each city comprises a chronological sequence made of stages, each of which is thoroughly developed and usually announced as zoning plans or urban development projects, accompanied by the plans of the pedestrian actions. At the end of each stage, data with the figures of the pedestrianisation projects are provided, including a numerical chart with locations, pedestrian area, redeveloped urban areas, pedestrian length and pedestrianisation degree in the historic quarter, as well as the data cumulated throughout each stage. In the crossed conclusions on the three cities, the trend of gradually pedestrianising the historic quarters (even reaching the 100% of the pedestrian streets as in San Sebastián) is verified. However, it is difficult to confirm whether the purpose is to reach an overall pedestrianisation of the historic quarters, since there are many variables that affect and influence each city's pedestrianisation process. In addition, the spread of the pedestrian culture from the internal areas to the external areas, beyond the historic quarters to the nearby expansion areas, is compared. Regarding the origin of pedestrianisations, the thesis comes to the conclusion that there is no initial or theoretical conception from which each city's pedestrian plot is developed. The pedestrian processes implemented are varied and diverse but no fact can be specified as the main cause. Based on the moment and circumstances, the pedestrianisation processes are due to different initiatives promoted by shopkeepers, by the local administrations or by the zoning officers, with their expert contributions to the plans. These three players promote and drive individual pedestrianisation projects that overlap in the course of time. Finally, new lines of research are put forwards, as they can be taken as an additional study and as a supplement to this research, dealing with aspects as significant as the economic, social and mobility factors, closely linked to the pedestrianisation processes, as proven in the literature consulted.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper addresses initial efforts to develop a navigation system for ground vehicles supported by visual feedback from a mini aerial vehicle. A visual-based algorithm computes the ground vehicle pose in the world frame, as well as possible obstacles within the ground vehicle pathway. Relying on that information, a navigation and obstacle avoidance system is used to re-plan the ground vehicle trajectory, ensuring an optimal detour. Finally, some experiments are presented employing a unmanned ground vehicle (UGV) and a low cost mini unmanned aerial vehicle (UAV).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In living bodies, the correct perceptual representation of size constancy requires that an object's size appear the same when it changes its location with respect to the observer. At the same time, it is necessary that objects at different locations appear to be the same size if they are. In order to do that, the perceptual system must recover from the stimuli impinging on the individual, from the light falling on the retina, a representation of the relative sizes of objects in the environment. Moreover, at the same time, image perception is related to another type of phenomena. It corresponds to the well known perceptual illusions. To analyze this facts, we propose a system based on a particular arrays of receptive points composed by optical fibers and dummy fibers. The structure is based on the first layers of the mammalians primary visual cortex. At that part of the brain, the neurons located at certain columns, respond to particular directions. This orientation changes in a systematic way as one moves across the cortical surface. In our case, the signals from the above-mentioned array are analyzed and information concerning orientation and size of a particular line is obtained. With this system, the Muelle-Lyer illusion has been studied and some rules to interpret why equal length objects give rise to different interpretations are presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quality assessment is a key factor for stereoscopic 3D video content as some observers are affected by visual discomfort in the eye when viewing 3D video, especially when combining positive and negative parallax with fast motion. In this paper, we propose techniques to assess objective quality related to motion and depth maps, which facilitate depth perception analysis. Subjective tests were carried out in order to understand the source of the problem. Motion is an important feature affecting 3D experience but also often the cause of visual discomfort. The automatic algorithm developed tries to quantify the impact on viewer experience when common cases of discomfort occur, such as high-motion sequences, scene changes with abrupt parallax changes, or complete absence of stereoscopy, with a goal of preventing the viewer from having a bad stereoscopic experience.