19 resultados para PRUEBAS DE PERCEPCIÓN VISUAL

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el presente trabajo fin de máster se ha concebido, diseñado e utilizado una interfaz háptica, adecuada para ser utilizada como dispositivo de sustitución sensorial, la cual hemos llamado retina táctil. Por cuanto trata de proporcionar información propia del sentido de la vista a través del sentido del tacto. Durante este trabajo, que fue desarrollado en el grupo de robótica y cibernética CAR UPM-CSIC, se ha trabajado en estrecha colaboración con el departamento de la facultad de psicología de la universidad autónoma de Madrid, los cuales han definido las bases de la información de alto orden, como podrían ser, gradientes de intensidades de vibración, mediante las cuales el individuo llega a tener una mejor comprensión del ambiente. El proyecto maneja teorías psicológicas recientes, como las teorías ecológicas y dinámicas que entienden que la percepción se basa en variables informacionales de alto orden. Ejemplos de tales variables son el flujo óptico, gradientes de movimiento, gradientes de intensidades, cambios en gradientes, etc. Sorprendentemente, nuestra percepción visual es mucho más sensible a variables de alto orden que a variables de bajo orden, lo cual descarta que variables de alto orden se infieran o calculen en base a variables de bajo orden. La hipótesis que maneja la teoría ecológica es que las variables de alto orden se detectan como unidades básicas, sin descomponerlas en variables de bajo orden. Imaginemos el caso de un objeto acercándose, intuitivamente pensaríamos que calculamos la distancia y la velocidad del objeto para determinar el momento en el cual este nos impactaría, ¿pero es este realmente el modo en el que actúa nuestro cerebro?, ¿no seremos capaces en determinar directamente el tiempo de contacto como una variable de alto orden presente en el entorno?, por ejemplo, determinar directamente la relación entre el tamaño del objeto y la tasa de crecimiento. También cabe preguntarse si todas estas suposiciones son válidas para estimulaciónes a través de los receptores táctiles en la piel. El dispositivo desarrollado está conformado por 13 módulos cada uno de los cuales maneja 6 tactores o vibradores, para hacer un total de 78 vibradores (ampliables al agregar módulos adicionales), cada uno de los tactores tiene 8mm de diámetro y proporciona información del flujo óptico asociado al entorno que rodea al usuario a través de información táctil, él mismo puede ser utilizado inalámbricamente a pesar de que el procesamiento de los datos se este realizando en una computadora de mesa, lo cual es muy útil al trabajar con ambientes virtuales. También se presenta la integración de la interfaz con el sistema operativo de robots ROS para usarlo en conjunto con las librerías que han sido desarrolladas para el control de la cámara Microsoft Kinect con la cual se puede obtener una matriz de distancias de puntos en el espacio, permitiendo de esta manera utilizar la interfaz en ambientes reales. Finalmente se realizaron experimentos para comprobar hipótesis sobre la variable de percepción del tiempo de contacto además de verificar el correcto funcionamiento del dispositivo de sustitución sensorial tanto en ambientes reales como en ambientes simulados así como comprobar hipótesis sobre la validéz del uso del flujo vibrotáctil para la determinación del tiempo de contacto.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de esta investigación fue profundizar en el conocimiento de la percepción visual de taekwondistas expertos y determinar si esta percepción varía en función de la limitación temporal a la que son expuestos

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación dedeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación dedeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias dedeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La gran cantidad de datos que se registran diariamente en los sistemas de base de datos de las organizaciones ha generado la necesidad de analizarla. Sin embargo, se enfrentan a la complejidad de procesar enormes volúmenes de datos a través de métodos tradicionales de análisis. Además, dentro de un contexto globalizado y competitivo las organizaciones se mantienen en la búsqueda constante de mejorar sus procesos, para lo cual requieren herramientas que les permitan tomar mejores decisiones. Esto implica estar mejor informado y conocer su historia digital para describir sus procesos y poder anticipar (predecir) eventos no previstos. Estos nuevos requerimientos de análisis de datos ha motivado el desarrollo creciente de proyectos de minería de datos. El proceso de minería de datos busca obtener desde un conjunto masivo de datos, modelos que permitan describir los datos o predecir nuevas instancias en el conjunto. Implica etapas de: preparación de los datos, procesamiento parcial o totalmente automatizado para identificar modelos en los datos, para luego obtener como salida patrones, relaciones o reglas. Esta salida debe significar un nuevo conocimiento para la organización, útil y comprensible para los usuarios finales, y que pueda ser integrado a los procesos para apoyar la toma de decisiones. Sin embargo, la mayor dificultad es justamente lograr que el analista de datos, que interviene en todo este proceso, pueda identificar modelos lo cual es una tarea compleja y muchas veces requiere de la experiencia, no sólo del analista de datos, sino que también del experto en el dominio del problema. Una forma de apoyar el análisis de datos, modelos y patrones es a través de su representación visual, utilizando las capacidades de percepción visual del ser humano, la cual puede detectar patrones con mayor facilidad. Bajo este enfoque, la visualización ha sido utilizada en minería datos, mayormente en el análisis descriptivo de los datos (entrada) y en la presentación de los patrones (salida), dejando limitado este paradigma para el análisis de modelos. El presente documento describe el desarrollo de la Tesis Doctoral denominada “Nuevos Esquemas de Visualizaciones para Mejorar la Comprensibilidad de Modelos de Data Mining”. Esta investigación busca aportar con un enfoque de visualización para apoyar la comprensión de modelos minería de datos, para esto propone la metáfora de modelos visualmente aumentados. ABSTRACT The large amount of data to be recorded daily in the systems database of organizations has generated the need to analyze it. However, faced with the complexity of processing huge volumes of data over traditional methods of analysis. Moreover, in a globalized and competitive environment organizations are kept constantly looking to improve their processes, which require tools that allow them to make better decisions. This involves being bettered informed and knows your digital story to describe its processes and to anticipate (predict) unanticipated events. These new requirements of data analysis, has led to the increasing development of data-mining projects. The data-mining process seeks to obtain from a massive data set, models to describe the data or predict new instances in the set. It involves steps of data preparation, partially or fully automated processing to identify patterns in the data, and then get output patterns, relationships or rules. This output must mean new knowledge for the organization, useful and understandable for end users, and can be integrated into the process to support decision-making. However, the biggest challenge is just getting the data analyst involved in this process, which can identify models is complex and often requires experience not only of the data analyst, but also the expert in the problem domain. One way to support the analysis of the data, models and patterns, is through its visual representation, i.e., using the capabilities of human visual perception, which can detect patterns easily in any context. Under this approach, the visualization has been used in data mining, mostly in exploratory data analysis (input) and the presentation of the patterns (output), leaving limited this paradigm for analyzing models. This document describes the development of the doctoral thesis entitled "New Visualizations Schemes to Improve Understandability of Data-Mining Models". This research aims to provide a visualization approach to support understanding of data mining models for this proposed metaphor visually enhanced models.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La medida de calidad dedeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión dedeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia dedeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Métrica de calidad de video de alta definición construida a partir de ratios de referencia completa. La medida de calidad de video, en inglés Visual Quality Assessment (VQA), es uno de los mayores retos por solucionar en el entorno multimedia. La calidad dedeo tiene un impacto altísimo en la percepción del usuario final (consumidor) de los servicios sustentados en la provisión de contenidos multimedia y, por tanto, factor clave en la valoración del nuevo paradigma denominado Calidad de la Experiencia, en inglés Quality of Experience (QoE). Los modelos de medida de calidad dedeo se pueden agrupar en varias ramas según la base técnica que sustenta el sistema de medida, destacando en importancia los que emplean modelos psicovisuales orientados a reproducir las características del sistema visual humano, en inglés Human Visual System, del que toman sus siglas HVS, y los que, por el contrario, optan por una aproximación ingenieril en la que el cálculo de calidad está basado en la extracción de parámetros intrínsecos de la imagen y su comparación. A pesar de los avances recogidos en este campo en los últimos años, la investigación en métricas de calidad dedeo, tanto en presencia de referencia (los modelos denominados de referencia completa), como en presencia de parte de ella (modelos de referencia reducida) e incluso los que trabajan en ausencia de la misma (denominados sin referencia), tiene un amplio camino de mejora y objetivos por alcanzar. Dentro de ellos, la medida de señales de alta definición, especialmente las utilizadas en las primeras etapas de la cadena de valor que son de muy alta calidad, son de especial interés por su influencia en la calidad final del servicio y no existen modelos fiables de medida en la actualidad. Esta tesis doctoral presenta un modelo de medida de calidad de referencia completa que hemos llamado PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), basado en la ponderación de cuatro ratios de calidad calculados a partir de características intrínsecas de la imagen. Son: El Ratio de Fidelidad, calculado mediante el gradiente morfológico o gradiente de Beucher. El Ratio de Similitud Visual, calculado mediante los puntos visualmente significativos de la imagen a través de filtrados locales de contraste. El Ratio de Nitidez, que procede de la extracción del estadístico de textura de Haralick contraste. El Ratio de Complejidad, obtenido de la definición de homogeneidad del conjunto de estadísticos de textura de Haralick PARMENIA presenta como novedad la utilización de la morfología matemática y estadísticos de Haralick como base de una métrica de medida de calidad, pues esas técnicas han estado tradicionalmente más ligadas a la teledetección y la segmentación de objetos. Además, la aproximación de la métrica como un conjunto ponderado de ratios es igualmente novedosa debido a que se alimenta de modelos de similitud estructural y otros más clásicos, basados en la perceptibilidad del error generado por la degradación de la señal asociada a la compresión. PARMENIA presenta resultados con una altísima correlación con las valoraciones MOS procedentes de las pruebas subjetivas a usuarios que se han realizado para la validación de la misma. El corpus de trabajo seleccionado procede de conjuntos de secuencias validados internacionalmente, de modo que los resultados aportados sean de la máxima calidad y el máximo rigor posible. La metodología de trabajo seguida ha consistido en la generación de un conjunto de secuencias de prueba de distintas calidades a través de la codificación con distintos escalones de cuantificación, la obtención de las valoraciones subjetivas de las mismas a través de pruebas subjetivas de calidad (basadas en la recomendación de la Unión Internacional de Telecomunicaciones BT.500), y la validación mediante el cálculo de la correlación de PARMENIA con estos valores subjetivos, cuantificada a través del coeficiente de correlación de Pearson. Una vez realizada la validación de los ratios y optimizada su influencia en la medida final y su alta correlación con la percepción, se ha realizado una segunda revisión sobre secuencias del hdtv test dataset 1 del Grupo de Expertos de Calidad dedeo (VQEG, Video Quality Expert Group) mostrando los resultados obtenidos sus claras ventajas. Abstract Visual Quality Assessment has been so far one of the most intriguing challenges on the media environment. Progressive evolution towards higher resolutions while increasing the quality needed (e.g. high definition and better image quality) aims to redefine models for quality measuring. Given the growing interest in multimedia services delivery, perceptual quality measurement has become a very active area of research. First, in this work, a classification of objective video quality metrics based on their underlying methodologies and approaches for measuring video quality has been introduced to sum up the state of the art. Then, this doctoral thesis describes an enhanced solution for full reference objective quality measurement based on mathematical morphology, texture features and visual similarity information that provides a normalized metric that we have called PARMENIA (PArallel Ratios MEtric from iNtrInsic features Analysis), with a high correlated MOS score. The PARMENIA metric is based on the pooling of different quality ratios that are obtained from three different approaches: Beucher’s gradient, local contrast filtering, and contrast and homogeneity Haralick’s texture features. The metric performance is excellent, and improves the current state of the art by providing a wide dynamic range that make easier to discriminate between very close quality coded sequences, especially for very high bit rates whose quality, currently, is transparent for quality metrics. PARMENIA introduces a degree of novelty against other working metrics: on the one hand, exploits the structural information variation to build the metric’s kernel, but complements the measure with texture information and a ratio of visual meaningful points that is closer to typical error sensitivity based approaches. We would like to point out that PARMENIA approach is the only metric built upon full reference ratios, and using mathematical morphology and texture features (typically used in segmentation) for quality assessment. On the other hand, it gets results with a wide dynamic range that allows measuring the quality of high definition sequences from bit rates of hundreds of Megabits (Mbps) down to typical distribution rates (5-6 Mbps), even streaming rates (1- 2 Mbps). Thus, a direct correlation between PARMENIA and MOS scores are easily constructed. PARMENIA may further enhance the number of available choices in objective quality measurement, especially for very high quality HD materials. All this results come from validation that has been achieved through internationally validated datasets on which subjective tests based on ITU-T BT.500 methodology have been carried out. Pearson correlation coefficient has been calculated to verify the accuracy of PARMENIA and its reliability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivo: Analizar el grado de relación entre cuatro pruebas que valoran la funcionalidad de la marcha en sujetos jóvenes con daño cerebral adquirido (DCA) en fase subaguda y conocer el grado de relación entre estas pruebas y la percepción subjetiva de seguridad en actividades de la vida diaria. Metodología: 67 participantes jóvenes con DCA en fase subaguda (43 hombres y 24 mujeres) con una edad media 35,09 años. Se realizó estadística descriptiva de todas las variables demográficas: género, edad, IMC, meses desde que se produjo la lesión y etiología lesional. Para analizar si existe correlación entre las variables se utilizó el coeficiente de Pearson. Resultados: El Timed 10-Meter Walk presenta una correlación muy alta con Timed Up and Go (TUG) (r=093), alta con el 6-Minute Walk Test (r=0,77) y moderada con el Step Test (r=0,56). El 6-Minute Walk Test presenta una correlación alta con el TUG (r=0,82) y una correlación moderada con el Step Test (r=0,69). El Step Test presenta una correlación moderada con el TUG (r= -0,68). The Activities-specific Balance Confidence Scale (ABC) presenta una correlación moderada con el Timed 10-Meter Walk (r=0,42), TUG (R=0,40), 6-Minute Walk Test (r=0,40) y Step Test (r=0,44). Conclusiones: Las pruebas de funcionalidad de la marcha presentan una correlación significativa entre moderada y muy alta en personas jóvenes con DCA. El ABC presenta una correlación significativa moderada con las cuatro variables de funcionalidad de la marcha analizadas en esta población

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El principal objetivo de esta tesis es dotar a los vehículos aéreos no tripulados (UAVs, por sus siglas en inglés) de una fuente de información adicional basada en visión. Esta fuente de información proviene de cámaras ubicadas a bordo de los vehículos o en el suelo. Con ella se busca que los UAVs realicen tareas de aterrizaje o inspección guiados por visión, especialmente en aquellas situaciones en las que no haya disponibilidad de estimar la posición del vehículo con base en GPS, cuando las estimaciones de GPS no tengan la suficiente precisión requerida por las tareas a realizar, o cuando restricciones de carga de pago impidan añadir sensores a bordo de los vehículos. Esta tesis trata con tres de las principales áreas de la visión por computador: seguimiento visual y estimación visual de la pose (posición y orientación), que a su vez constituyen la base de la tercera, denominada control servo visual, que en nuestra aplicación se enfoca en el empleo de información visual para controlar los UAVs. Al respecto, esta tesis se ocupa de presentar propuestas novedosas que permitan solucionar problemas relativos al seguimiento de objetos mediante cámaras ubicadas a bordo de los UAVs, se ocupa de la estimación de la pose de los UAVs basada en información visual obtenida por cámaras ubicadas en el suelo o a bordo, y también se ocupa de la aplicación de las técnicas propuestas para solucionar diferentes problemas, como aquellos concernientes al seguimiento visual para tareas de reabastecimiento autónomo en vuelo o al aterrizaje basado en visión, entre otros. Las diversas técnicas de visión por computador presentadas en esta tesis se proponen con el fin de solucionar dificultades que suelen presentarse cuando se realizan tareas basadas en visión con UAVs, como las relativas a la obtención, en tiempo real, de estimaciones robustas, o como problemas generados por vibraciones. Los algoritmos propuestos en esta tesis han sido probados con información de imágenes reales obtenidas realizando pruebas on-line y off-line. Diversos mecanismos de evaluación han sido empleados con el propósito de analizar el desempeño de los algoritmos propuestos, entre los que se incluyen datos simulados, imágenes de vuelos reales, estimaciones precisas de posición empleando el sistema VICON y comparaciones con algoritmos del estado del arte. Los resultados obtenidos indican que los algoritmos de visión por computador propuestos tienen un desempeño que es comparable e incluso mejor al de algoritmos que se encuentran en el estado del arte. Los algoritmos propuestos permiten la obtención de estimaciones robustas en tiempo real, lo cual permite su uso en tareas de control visual. El desempeño de estos algoritmos es apropiado para las exigencias de las distintas aplicaciones examinadas: reabastecimiento autónomo en vuelo, aterrizaje y estimación del estado del UAV. Abstract The main objective of this thesis is to provide Unmanned Aerial Vehicles (UAVs) with an additional vision-based source of information extracted by cameras located either on-board or on the ground, in order to allow UAVs to develop visually guided tasks, such as landing or inspection, especially in situations where GPS information is not available, where GPS-based position estimation is not accurate enough for the task to develop, or where payload restrictions do not allow the incorporation of additional sensors on-board. This thesis covers three of the main computer vision areas: visual tracking and visual pose estimation, which are the bases the third one called visual servoing, which, in this work, focuses on using visual information to control UAVs. In this sense, the thesis focuses on presenting novel solutions for solving the tracking problem of objects when using cameras on-board UAVs, on estimating the pose of the UAVs based on the visual information collected by cameras located either on the ground or on-board, and also focuses on applying these proposed techniques for solving different problems, such as visual tracking for aerial refuelling or vision-based landing, among others. The different computer vision techniques presented in this thesis are proposed to solve some of the frequently problems found when addressing vision-based tasks in UAVs, such as obtaining robust vision-based estimations at real-time frame rates, and problems caused by vibrations, or 3D motion. All the proposed algorithms have been tested with real-image data in on-line and off-line tests. Different evaluation mechanisms have been used to analyze the performance of the proposed algorithms, such as simulated data, images from real-flight tests, publicly available datasets, manually generated ground truth data, accurate position estimations using a VICON system and a robotic cell, and comparison with state of the art algorithms. Results show that the proposed computer vision algorithms obtain performances that are comparable to, or even better than, state of the art algorithms, obtaining robust estimations at real-time frame rates. This proves that the proposed techniques are fast enough for vision-based control tasks. Therefore, the performance of the proposed vision algorithms has shown to be of a standard appropriate to the different explored applications: aerial refuelling and landing, and state estimation. It is noteworthy that they have low computational overheads for vision systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto fin de carrera, realizado por el ingeniero técnico en telecomunicaciones Pedro M. Matamala Lucas, es la fase final de desarrollo de un proyecto de mayor magnitud correspondiente al software dedeo forense SAVID. El propósito del proyecto en su totalidad es la creación de una herramienta informática capacitada para realizar el análisis de ficheros dedeo, codificados y comprimidos por el sistema DV –Digital Video-. El objetivo del análisis, es aportar información acerca de si la cinta magnética presenta indicios de haber sido manipulada con una edición posterior a su grabación original, además, de mostrar al usuario otros datos de interés como las especificaciones técnicas de la señal dedeo y audio. Por lo tanto, se facilitará al usuario, analista dedeo forense, información que le ayude a valorar la originalidad del contenido del soporte que es sujeto del análisis. El objetivo específico de esta fase final, es la creación de la interfaz de usuario del software, que informa tanto del código binario de los sectores significativos, como de su interpretación tras el análisis. También permitirá al usuario el reporte de los resultados, además de otras funcionalidades que le permitan la navegación por los sectores del código que han sido modificados como efecto colateral de la edición de la cinta magnética original. Otro objetivo importante del proyecto ha sido la investigación de metodologías y técnicas de desarrollo de software para su posterior implementación, buscando con esto, una mayor eficiencia en la gestión del tiempo y una mayor calidad de software con el fin de garantizar su evolución y sostenibilidad en el futuro. Se ha hecho hincapié en las metodologías ágiles que han ido ganando relevancia en el sector de las tecnologías de la información en las últimas décadas, sustituyendo a metodologías clásicas como el desarrollo en cascada. Su flexibilidad durante el ciclo de vida del software, permite obtener mejores resultados cuando las especificaciones no están del todo definidas, ajustándose de este modo a las condiciones del proyecto. Resumiendo las especificaciones técnicas del software, C++ es el lenguaje de programación orientado a objetos con el que se ha desarrollado, utilizándose la tecnología MFC -Microsoft Foundation Classes- para la implementación. Es un proyecto MFC de tipo cuadro de dialogo,creado, compilado y publicado, con la herramienta de desarrollo integrado Microsoft Visual Studio 2010. La arquitectura con la que se ha estructurado es la arquetípica de tres capas, compuesta por la interfaz de usuario, capa de negocio y capa de acceso a datos. Se ha visto necesario configurar el proyecto con compatibilidad con CLR –Common Languages Runtime- para poder implementar la funcionalidad de creación de reportes. Acompañando a la aplicación informática, se presenta la memoria del proyecto y sus anexos correspondientes a los documentos EDRF –Especificaciones Detalladas de Requisitos funcionales-, EIU –Especificaciones de Interfaz de Usuario , DT -Diseño Técnico- y Guía de Usuario. SUMMARY. This dissertation, carried out by the telecommunications engineer Pedro M. Matamala Lucas, is in its final stage and is part of a larger project for the software of forensic video called SAVID. The purpose of the entire project is the creation of a software tool capable of analyzing video files that are coded and compressed by the DV -Digital Video- System. The objective of the analysis is to provide information on whether the magnetic tape shows signs of having been tampered with after the editing of the original recording, and also to show the user other relevant data and technical specifications of the video signal and audio. Therefore the user, forensic video analyst, will have information to help assess the originality of the content of the media that is subject to analysis. The specific objective of this final phase is the creation of the user interface of the software that provides information about the binary code of the significant sectors and also its interpretation after analysis. It will also allow the user to report the results, and other features that will allow browsing through the sections of the code that have been modified as a secondary effect of the original magnetic tape being tampered. Another important objective of the project is the investigation of methodologies and software development techniques to be used in deployment, with the aim of greater efficiency in time management and enhanced software quality in order to ensure its development and maintenance in the future. Agile methodologies, which have become important in the field of information technology in recent decades, have been used during the execution of the project, replacing classical methodologies such as Waterfall Development. The flexibility, as the result of using by agile methodologies, during the software life cycle, produces better results when the specifications are not fully defined, thus conforming to the initial conditions of the project. Summarizing the software technical specifications, C + + the programming language – which is object oriented and has been developed using technology MFC- Microsoft Foundation Classes for implementation. It is a project type dialog box, created, compiled and released with the integrated development tool Microsoft Visual Studio 2010. The architecture is structured in three layers: the user interface, business layer and data access layer. It has been necessary to configure the project with the support CLR -Common Languages Runtime – in order to implement the reporting functionality. The software application is submitted with the project report and its annexes to the following documents: Functional Requirements Specifications - Detailed User Interface Specifications, Technical Design and User Guide.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Discurso del Académico Martín Pereda en la sesión inaugural del año académico ante sus compañeros de la Real Academia de Ingeniería. En él, el autor esboza su interpretación de cómo nuestro cerebro interpreta algunas imágenes, y más en concreto las ilusiones visuales, cómo la Fotónica puede ayudarnos a interpretarlas y cómo su interpretación puede servirnos para entender algo de cómo funciona nuestro sistema visual. Quizás de todo ello podrán extraerse conceptos que ayuden a interpretar la realidad.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente ensayo pretende aportar una reflexión sobre el amplio territorio de la imagen en la arquitectura hoy. Para ello un buen ejemplo es el proyecto del Rascacielos de la Friedrichstrasse, realizado por Mies van der Rohe en el periodo de entre guerras de 1921/22. Muchas son las razones que han hecho de esta obra la elegida, pero una más actual sobresale del resto: que de los cientos de ensayos vertidos sobre esta obra solo se haya comentado -salvo alguna excepción- las características objetuales de lo directamente descrito por las vistas -como si fuera un fiel reflejo de la realidad- sin entrar a analizar la verdadera naturaleza física y simbólica de lo representado como expresión subjetiva –espacial- de una arquitectura. Si su importancia como punto de inflexión en el desarrollo inicial de una obra plenamente moderna es un motivo más que suficiente para dedicarle un estudio pormenorizado, ya que puede resultar crucial para comprender los inicios del autor en el Movimiento Moderno. Su presencia como un reducido conjunto de cuatro vistas perspectivas, mezcla de una fotografía del lugar y de un dibujo realizado sobre la misma, acarrea en nuestra opinión significaciones igual de importantes para la comprensión de esta arquitectura que todas aquellas ideas descritas sobre las mismas. Creadas en una época seminal, cuando el lenguaje de la fotografía y el cine están en pleno desarrollo, se puede afirmar que el conjunto de representaciones del Rascacielos de la Friedrichstrasse forman parte como referente histórico de una de las primeras arquitecturas virtuales que pertenecen de pleno derecho al Movimiento Moderno. Paradigma de las más absoluta actualidad, por encontrarse en esa frontera de lo nunca realizado, pero sí asumible espacialmente como realidad fotográfica, las imágenes del rascacielos se pueden considerar así como una de las primeras reflexiones sobre la naturaleza virtual del proyecto arquitectónico postindustrial. No siendo novedoso que la descripción fotográfica de una obra absorba y comunique por sí misma las múltiples propiedades que esta posee, como tampoco lo es que la mayoría de arquitecturas se den por conocidas actualmente a través de los medios. Sorprende que hasta hoy no se hayan analizado con la misma intensidad las múltiples razones que dieron lugar a unas imágenes cuya poética da forma por igual a la arquitectura que representan. Si la intención es reflexionar así sobre este hecho contemporáneo mediante un ejemplo paradigmático, certificado por la historia, nos veremos obligados a emplear una metodología acorde a la condición dual que toda imagen mediatizada produce en su lectura como mezcla fluctuante entre lo que se interpreta de manera autónoma a través de lo representado y de los significados que la imagen adquiere a lo largo de su recorrido como referente histórico. Esta ambivalencia interpretativa llevará a organizar este ensayo mediante dos bloques claramente diferenciados que, complementarios entre sí, siguen el orden de lectura que toda imagen de una arquitectura ofrece a través de los medios. Así, una primera parte, titulada La imagen de una arquitectura, analiza la interpretación que la historia y el autor han dado al rascacielos por medio de su uso en las diferentes exposiciones, revistas, tratados de estilos y monografías de las que ha formado parte. Este recorrido, que es el verdadero espacio donde estas arquitecturas residen, limitado -por una cuestión de poner orden- al estudio a los países que acogieron en vida al autor, servirá para establecer una primera narrativa que expone las diferentes posiciones que la crítica ha producido a lo largo del tiempo. La presencia del primer rascacielos junto al segundo, en la publicación que el arquitecto realiza de manera temprana en Frühlicht, obligará a incorporar esta segunda solución como una parte más del estudio. Cargada de las citas obligadas, de las diferentes personalidades que se han enfrentado a dichos proyectos, este primer análisis historiográfico establece un primer estado de la cuestión donde se revela una lectura ambivalente de los rascacielos. Si la interpretación directa de sus imágenes ha permitido profundizar en las características del vidrio y sus reflejos y en la desnudez de una estructura metálica como claros ejemplos de una expresión moderna y tecnológica de vidrio y el acero. Las particulares formas triangulares del primero y las formas sinuosas del segundo han dado lugar a una multitud de calificaciones, de ser ejemplo tanto de un Expresionismo como de un dadaísmo o constructivismo, que con el tiempo han ido creciendo hacia una admiración artística con una fuerte carga poética. Este lectura histórica, que remata con un breve periodo más actual donde se inicia el cuestionamiento de su carácter utópico y se recupera puntualmente su naturaleza como proyecto, servirá para plantear finalmente una serie de dudas que, sin respuesta aparente, exigen revisar la lectura de sus imágenes como parte de lo que realmente son: expresión de una nueva arquitectura que a partir de ese preciso momento entra de pleno derecho en el Movimiento Moderno. Por otro lado, la existencia en el discurso posterior del arquitecto de un proceso de formalizacion altamente valorado por su autor y la presencia de igual a igual de un lugar en las representaciones y planos de los rascacielos, que la historia parece haber obviado, servirán como razón más que suficiente para la revisión de unas relaciones iniciales con la vanguardia -todavía hoy poco definidas- así como para proponer la lectura renovada de dichas propuestas en altura por lo que también son: proyectos que responden a unas necesidades espaciales de un lugar y tiempo muy determinados. Esta segunda parte, denominada La arquitectura de una imagen, se plantea así más como una inmersión total en el mundo del proyecto que una simple descripción nominal del mismo. Conscientemente simétrica y opuesta a un primer bloque histórico, esta segunda parte -mucho más extensa y parte central de esta tesis- se concentra en el análisis de las imágenes como: aquel conjunto de eventos históricos que aplicados sobre la ciudad, el lugar, el rascacielos, y los procesos técnicos de la imagen dieron lugar a estas arquitecturas como razón de ser. Consecuentemente se tratará pues de bucear en las razones que, ocultas como proceso de formalización, llevaron a Mies a dar un paso más allá hacia a una nueva manera de hacer, ver y pensar su arquitectura, de expresar un espacio. La aproximación a estas imágenes radicará por tanto en resaltar al mismo tiempo la naturaleza de unas representaciones cuyas características fotográficas son el fiel reflejo de una época donde los nuevos medios visuales –cine y fotografía- empiezan a ser cuestionados por su excesiva utilización. La complejidad de unos hechos coincidentes en el tiempo obligará a dividir este estudio en un primer acercamiento general, a la respuesta dada por una mayoría de participantes al concurso, para así cotejar la importancia de una actitud proyectual y contextual común de Mies y sus compañeros. Mezcla de requerimientos y necesidades de la propia historia de la parcela, de las peculiaridades de un lugar y las exigencias programáticas del concurso; el siguiente paso consistirá en reconstruir el proceso de formalización del conjunto de dibujos que caracterizan ambos proyectos para así comprender los mecanismo que, suspendidos como traslaciones entre las diferentes representaciones, operan en la realización física de dichas imágenes y complementan como pensamiento la idea arquitectónica de los mismos. Con lo que se pretende ofrecer dos cosas: una interpretación que tenga en cuenta la novedosa naturaleza de la manera de pensar lo fotográfico en el arquitecto, así como la particular idiosincrasia del momento en que estas concurren. Dicho de otro modo, se realizará una aproximación de las vistas del primer rascacielos que tenga en cuenta la historia tecnológica y visual que rodea al evento y las características de una ejecución física todavía hoy sin aclarar del todo. El descubrimiento de una serie de incoherencias geométricas en las plantas, alzado y vistas del primer proyecto llevará a argumentar la presencia de un trampantojo que, nunca antes revelado, se entiende lleno de unas intenciones espaciales plenamente vanguardistas. Interpretación arquitectónica de las imágenes donde la presencia de una serie de elementos directamente ligados al lenguaje fotográfico y cinematográfico se traduce en una nueva lectura espacial plenamente dinámica llena de dislocación, ritmo y simultaneidad alejada de la idea de ver la forma como un elemento permanentemente fijo. Sugerencia que nos lleva directamente a la lectura del segundo proyecto de rascacielos como una clara continuación de lo imaginado en el primero. Para finalizar, tras una revisión biográfica -previa al proyecto- que desvela unas preocupaciones urbanas y un deseo de cambio anterior al concurso de la Friedrichstrasse, se comparan estas nuevas significaciones espaciales con una práctica de vanguardia que, coetánea a la convocatoria de 1921, demuestran unas investigaciones muy similares con unos mismos intereses cinematográficos. La lectura de las propuestas de tres artistas próximos en ese momento al arquitecto -como son Hans Richter, Moholy-Nagy y El Lissitzky- permiten demostrar unas preocupaciones muy similares a lo conseguido por Mies con los rascacielos que parecen haber servido de ejemplo y motivación mutua para el surgimiento de una nueva espacialidad -más fluida-. Esta lectura permitirá recuperar la importancia de estos dos proyectos como la expresión directa de una nueva manera de pensar y hacer su arquitectura que ya no tendrá vuelta atrás en la obra de Mies. A la vez que recuperar la potencialidad poética de unas vistas que, así definidas reiteradamente por la crítica, se revelan ahora como directas transmisoras de ese deseo de cambio arquitectónico evidenciado en los proyectos posteriores. Racionalización de una poética que al ir más allá de la forma directamente transcrita permite establecer una última reflexión general sobre como opera la imagen en la arquitectura, así como la pertinencia crítica de este proyecto para con el mundo virtual de hoy. En definitiva, más allá del poder evocador de estas representaciones, este será un estudio que pretende cuestionar las características que la imagen de la arquitectura puede proponer más allá de su literalidad por medio de la fascinante interacción que se produce entre la imagen y lo espacialmente imaginado. Encuentros, recursos e intereses de una respuesta plenamente arquitectónica que, además de dar luz a un cambio tan inclasificable como moderno, abre el camino a la interpretación de un proceso de formalizacion que, reiteradamente defendido por su autor justifican una intensidad poética dada por la historia y reafirman una preocupación artística a menudo desmentida por su autor. Dicho de otro modo, si profundizar en las razones arquitectónicas, históricas y técnicas que llevan a Mies a realizar sus rascacielos, por medio de su relación con la vanguardia y el cine, arrojan luz y explican el cambio que se está gestando en el arquitecto cara una nueva espacialidad fluida. Reflexionar sobre su naturaleza espacial -de estas imágenes ya icónicas- equivale a aportar una reflexión crítica sobre la naturaleza simbólica de la imagen de la arquitectura hoy. “Aunque el puesto clave que ocupa el Rascacielos de la Friedrichstrasse dentro de la historia de la arquitectura moderna nunca ha sido seriamente cuestionado, la opinion critica al respecto siempre ha estado dividida. Desde la publicacion de la monografia de Philip Johnson sobre Mies en 1947, el muro cortina como una piel transparente que reviste el esqueleto estructural has ido aclamado como un gran avance pionero. Otros puntos de vista sobre el edificio, subrayando su supuesta planta expresionista, lo han visto como un esfuerzo un poco menos aventurado. Asi calibrada, la propuesta de Mies para la Friedrichstrasse es radicalmente moderna en mas de un sentido enfatizado por Johnson.” 1 W.Tegethoff ABSTRACT This essay reflects on the broad territory of the image in today’s architecture. One good example is the Friedrichstrasse Skyscraper design by Mies van der Rohe in 1921/22, during the period between World Wars I and II. There are many reasons why this work has been chosen, but one of the most recent stands out above the rest: of the hundreds of essays written on this work, comments have been made only (with the odd exception) on the objectual characteristics of what has been directly described by the views (as if it were a genuine reflection of reality), without analysing the real physical and symbolic nature of the representation a subjective (spatial) expression of architecture. If its importance as a point of inflection in the initial development of a completely modern work is more than enough reason to make a detailed study, since it may be crucial for understanding the author’s beginnings in the Modern Movement. Its presence as a reduced set of four views, the combination of a photograph of the place and a drawing made of it, in our opinion, carry meanings that are as important for understanding this architecture as all the ideas described about them. Created during an early period, when the languages of photography and cinema were in full swing, it can be said that the perspectives of the Friedrichstrasse Skyscraper form a historical reference of one of the first virtual architectures that belong entirely to the Modern Movement. A paradigm of the most absolute modernity owing to the fact that it is on that frontier of the never-accomplished, but spatially assumable as photographic reality, the images of the skyscraper can be considered as one of the first reflections on the virtual nature of post-industrial architectural design. There is nothing new in the fact that the photographic description of work absorbs and communicates on its own the multiple properties it involves and there is nothing new in the fact that most architectures become known today through the media. It is surprising that no analysis has been made to date, with the same intensity, of the many reasons that led to a number of images whose poetry add form to the architecture they represent. If the intention is to reflect on this contemporary fact using a paradigmatic example certified by history, we will be forced to use a methodology that corresponds to the dual condition produced by the interpretation of all media images as a fluctuating combination of what is interpreted independently through the representation and meanings the image acquires as a historical reference. This ambivalent interpretation will lead this essay to be structured in two clearly different and complementary blocks that follow the reading order offered by any image of architecture in the media. Thus, a first part, titled The image of an architecture, analyses the interpretation history and the author have given to the skyscraper through its use in the various exhibitions, magazines, style agreements and monographs in which it has been included. This examination, which is the real space in which these architectures reside, is (to delimit and organise the study) restricted to countries in which the author lived during his lifetime and it will help establish a first narrative that considers the different interpretations made by critics over time. The presence of the first skyscraper next to the second one in the publication the architect makes early on in Frühlicht will require the second solution to be incorporated as another part of the study. Laden with necessary quotes by the various personalities who have examined said designs, this first historiographical analysis establishes an initial state of the question that reveals an ambivalent interpretation of skyscrapers. If the direct interpretation of the images has made it possible to closely examine the characteristics of the glass and its reflections and the nudity of a metal structure as clear examples of a modern and technological expression of glass and steel. The particular triangular shapes of the former and the sinuous shapes of the latter have generated many classifications that suggest it is an example of Expressionism, Dadaism or Constructivism, which have grown over time into artistic admiration laden with poetry. This historical reading, which concludes with a more recent short period that begins to question the utopian character and recovers its nature as a project, will finally consider a number of doubts that have no apparent answer and require a revision of the reading of the images as part of what they actually are: expression of a new architecture that becomes part of the Modern Movement as from that precise moment. In addition, the existence in the architect’s subsequent discourse of a formalisation process highly valued by the author and the equal presence of a place in the representations and plans of a skyscraper history seems to have forgotten, will stand as more than sufficient reason for a revision of initial relations with the avantgarde -not particularly well defined today- together with a renewed reading of said vertical proposals for what they also are: projects that respond to the special needs of a very specific place and time. This second part, titled The architecture of an image, is presented more as a total immersion in the project world than a mere nominal description of it. Deliberately symmetrical and opposite to a historic first bloc, this second part (much longer and central part of the thesis) it will focus on analysing images as: the set of historical events that affected the skyscraper, city, place and technical processes image to provide these architectures with their raison d’être. Consequently, the aim is to delve in the reasons which, hidden as a formalisation process, led Mies to move on to a new form of doing, seeing and thinking his architecture, of expressing a space. The approach to these images will therefore lie in highlighting the nature of a number of representations whose photographic features are the true reflection of a period in which the new visual media (cinema and photography) begin to be questioned due to excessive use. The complexity of facts that coincide in time will require this study to be divided into a first general approach, with a response given by most of the participants in the competition, to compare the importance of a common approach in terms of project and context of the response given by Mies and his colleagues. A combination of requirements and needs of the very history of the plot of land, the peculiarities of a place and the programmatic requirements of the competition; the next step will reconstruct the formalisation process of the set of drawings that characterise both to understand the mechanism which, suspended like translations between the different representations, operates in the realisation of said images and complements as thought their architectural idea. The aim is thus to offer two things: an interpretation that takes into account the new way in which the architect works with photography, together with the particular idiosyncrasy of the moment at which they occur. In other words, the approach will focus on the views of the first skyscraper, which takes into account the technological and visual history that surrounds the event and the characteristics of a physical execution that still remains unexplained in full. The subsequent discovery of a number of geometrical incoherences in the floor plans, elevations and views of the first project will lead to an argument for the presence of trompe l’oeil which, never before revealed, is seen as laden with completely avant-garde spatial intentions. Architectural interpretation of the images where the presence of a number of elements directly linked to the languages of photography and cinema is translated into a new spatial reading that is completely dynamic and full of dislocation, rhythm and simultaneity far-removed from the idea of seeing shape as a permanently fixed element. This suggestion takes us to directly to the second skyscraper design as a clear continuation of what he imagined in the first. To end, after a preliminary biographical revision (previous to the project) that reveals urban concerns and a desire for change before the Friedrichstrasse competition, a comparison is made of these new spatial meanings with avant-garde practice which, contemporary with the 1921 competition, show very similar investigations with the same cinematographic interest. The reading of the proposals of three artists close to the architect at that time -i.e. Hans Richter, Moholy-Nagy and El Lissitzky- reveals concerns that are very similar to what Mies achieved with the skyscrapers that seem to have been used as an example and mutual motivation for the creation of a new (more fluent) spatiality. This interpretation will make it possible to recover the importance of these two projects as the direct expression of a new way of thinking and doing his architecture that was to remain fixed in Mies’ work. This also gives rise to the possibility of recovering the poetic potential of views which, as defined repeatedly by the critics, now stand as the direct transmitters of the desire for architectural change shown in later projects. A rationalisation of poetry which, by going beyond the directly transcribed form, gives rise to the establishment of one general final reflection on how the image works in architecture, together with the critical relevance of this design for today’s virtual world. In short, beyond the evocative power of images this will be a study which questions the characteristics the image of architecture can propose beyond its literality through the fascinating interaction between the image and spatially imagined. Encounters, resources and interests of a completely architectural response that, besides sheds light to a change that is as non-classifiable as it is modern, shows the way to the interpretation of a formalisation process which, repeatedly defined by the author, justifies a poetic intensity and confirms an artistic concern often denied by the author. In other words, examining the architectural, historical and technical reasons that led Mies to create his skyscrapers, thanks to its relationship with the avant-garde and cinema, sheds light on and explains the change taking place in the architect with regard to a new fluent spatiality. Reflecting on the spatial nature -of these iconic images- is tantamount to a critical reflection on the symbolic nature of architecture today. “Although the key position of the Friedrichstrasse Office Building within the early history of modern architecture has never been seriously challenged, critical opinion on it has always been divided. Ever since the publication of Philip Johnson’s monograph on Mies in 1947, the curtain wall as a transparent skin sheathing the skeleton structure has frequently been hailed as a pioneering breakthrough. Other views of the building, stressing its supposedly Expressionist plan, have seen it as a somewhat less adventurous effort. In fact, the project has never been regarded in abroad context. Thus measured, Mies’s proposal fro Friedrichstrasse is radically modern in more than the one respect emphasized by Johnson.” 1 W.Tegethoff

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente estudio se enmarca dentro de la Teoría del Rendimiento Experto. Esta teoría propone que para llegar a ser experto en un dominio, un sujeto debe superar un periodo de adquisición extensivo consistente en miles de horas de práctica intencionalmente diseñada para mejorar. El presente estudio buscó analizar las percepciones subjetivas de un grupo de corredores kenianos de larga distancia sobre sus tareas de entrenamiento para lo cual cumplimentaron un cuestionario basado en una taxonomía de actividades de entrenamiento valoradas en cuatro dimensiones: Relevancia, Esfuerzo, Concentración y Diversión. En este estudio participaron 27 corredores de fondo kenianos divididos en tres grupos de niveles por su marca. El rango de edades de los participantes fue de 21 a 39 años (M= 25,39; DT= 3,82). Todos estos corredores eran especialistas de las pruebas de media maratón y maratón. Fueron divididos en tres grupos de nivel de rendimiento por su marca: Medio, Alto y Muy Alto. Los resultados mostraron como las dimensiones de Concentración, Esfuerzo y Disfrute diferenciaron a los corredores por su nivel, asímismo se manifestó el papel que las actividades grupales de entrenamiento tienen para estos corredores, lo que plantea la cuestiòn si los modelos de desarrollo de la excelencia desarrollados en en los paises desarrollados sirven para explicar este fenómeno en los países en vías de desarrollo.