44 resultados para Esquemas de imagen


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo fundamental del artículo es establecer el paralelismo existente entre el origen del proyecto arquitectónico y los procesos de creación artística. Se plantea la dinámica de configuración arquitectónica como una serie de procesos abiertos basados en acciones gráficas. Se establece la imaginación como origen y acto de voluntad del proyectar, y se definen las imágenes como esquemas de organización y configuración de los contenidos de la imaginación. Se argumenta la necesidad de convertir esa primera imagen mental, de desencadenante imaginario, en imagen productiva arquitectónicamente. Se establece el dibujo arquitectónico como mecanismo idóneo para la concepción del proyectar, y el Análisis Formal Arquitectónico como su herramienta conceptual. Se concluye con la experiencia desarrollada en la asignatura Dibujo, Análisis e Ideación 2 (DAI 2), enmarcando su docencia en el inicio del proyectar, y con posterioridad a las capacidades adquiridas en la asignatura Dibujo, Análisis e Ideación 1 (DAI 1), todo ello evidenciando la labor del grafismo en los procesos de la creación arquitectónica. Palabras clave: Dibujar, Imaginar, Procesar, Acción, Comunicar, Proyectar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se trata de una aproximación al estudio de la arquitectura vernácula de la provincia de Ciudad Real, con un recorrido a través de las distintas comarcas, destacando las características de las diferentes respuestas constructivas al medio físico. Desde un conocimiento del territorio, y apoyándose en las imágenes, se analiza de forma transversal el objeto arquitectónico que conforma la edilicia urbana de los núcleos poblacionales del espacio provincial. Se realiza una visión general de los escasos ejemplos populares de los caseríos de la provincia. Se estudia la casa urbana, la impronta visual en calles y plazas, como tipo edificatorio más común, su composición, materiales, programa, distribución, volumen, sistemas constructivos y elementos arquitectónicos (lenguaje formal). Análisis aproximativo a la arquitectura vernácula urbana, en un trabajo de campo casi arqueológico. Al no profundizar sólo se resumen los aspectos principales y diferenciales de la arquitectura tradicional en la provincia de Ciudad Real, como transición entre la casa castellana y los cortijos andaluces, entre la casa extremeña y la levantina, con sus influencias y peculiaridades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se recoge en esta tesis doctoral la definición y clasificación de los edificios cuya finalidad es proporcionar espacios para escuchar y producir música. Se centra en aquellos construidos a lo largo del siglo XX, en el área geográfica y cultural que forman Europa occidental y Estados Unidos. Se analizan edificios construidos en el pasado, en una serie que se origina a mediados del siglo XIX y que se culmina terciado el propio siglo XX. Son edificios que contienen espacios pensados para músicas que, sin embargo, en su mayoría fueron creadas en un periodo anterior, desde mediados del siglo XVIII hasta las primeras décadas del siglo pasado. Un auditorium es un edificio cuya idea conlleva la compleja herencia de los múltiples lugares, abiertos y cerrados, que han alojado la música a lo largo del tiempo. Es un edificio que es útil a la sociedad y que ocupa un lugar significativo dentro de la ciudad, y es consecuencia del campo de fuerzas que constituyen los avances técnicos, el progreso de las sociedades urbanas y la evolución del arte, al compartir estrechamente, música y arquitectura, el interés por hallar la expresión de una nueva relación con la naturaleza. Se parte de la hipótesis de que el auditorium puede constituir un tipo arquitectónico con entidad suficiente para generar una tipología. Entendida ésta como una herramienta que dota de conocimientos útiles a quien va a proyectar un edificio para la música y también que permita abrir el campo de pensamiento sobre el espacio musical, sin necesidad de recurrir a modelos previos, aunque se hayan manifestado útiles y precisos. Se comienza con una aproximación a una definición del término «auditorium » y se analizan a qué funciones responde y en qué es distinto de otros edificios, a través de determinar las características formales propias. Para ello se articula la tesis en varios bloques de análisis. I Elementos para una tipología Se indaga en los atributos que determinan la naturaleza de los auditorios para definir cómo son estos edificios y qué características y condiciones tienen, no sólo las salas sino también los edificios que las contienen, buscando el origen de los espacios musicales y su relación con las personas que allí se han reunido para celebrar, a través de la música, acontecimientos colectivos. Relación que ha comportado desplazamientos por los distintos espacios que ha compartido, supeditada a otras actividades, hasta que finalmente, la música ha reclamado espacios propios. Pero también se establece otra relación física entre las distintas posiciones que ocupan en el espacio cuantos intervienen en la celebración del hecho musical, músicos y público. De otra parte se analiza cómo son sus espacios interiores, salas y vestíbulos, y los volúmenes y formas de los edificios en relación con la ciudad. Su conexión con la idea del paisaje abierto y con el carácter originario de la cueva. II Cinco tiempos Los edificios sobre los que se van explorar estas capacidades son en muchos casos arquitecturas divulgadas y conocidas. Sin embargo no todas han tenido desde su aparición el mismo grado de aprecio ni reconocimiento, y sólo el paso del tiempo ha confirmado su excelencia. El estudio se estructura en los periodos marcados por los acontecimientos bélicos y las grandes crisis que sacudieron Europa y Norte América desde comienzos del siglo XX. La identificación de los elementos significativos de la tipología se hace a través del análisis de distintos tiempos que agrupan casos heterogéneos, tiempos entendidos unas veces como la relación entre edificios coetáneos y otra como proyectos pensados por un mismo arquitecto y se detiene, entre otros, en cuatro excepcionales edificios que condensan la experiencia de varias décadas y demuestran su plenitud arquitectónica, por haber evolucionado de modelos precedentes o por su novedosas aportaciones. El Royal Festival Hall (1951), el Kresge Auditorium (1954), el Kulttuuritalo (1958) y la Philharmonie de Berlín (1963), sirven de base para una clasificación del auditorium. III Cronología gráfica Este apartado es fundamentalmente gráfico y consta un inventario de más de 100 archivos correspondientes a otros tantos auditorios y sus salas, en orden cronológico. Cada archivo cuenta con una imagen del exterior del edificio y otra del interior de la sala. Se han incorporado en cada uno de los archivos, dos dibujos a la misma escala. El primero muestra la planta de la sala con tres parámetros: la ocupación del público en referencia al lugar que ocupa la orquesta, la relación de tamaño entre la sala y las de los cuatro auditorios de referencia y la distancia al foco de sonido, la orquesta, mediante una escala en metros. Estos tres parámetros están superpuestos al que he considerado espacio audible, un rectángulo de 60 por 90 metros, en el que el foco está desplazado, por considerar que el sonido de una orquesta tiene una componente directional y que en esas dimensiones la energía sonora no decae. En el friso bajo el dibujo, aparecen cuatro iconos que informan de la relación formal de la sala con la del auditorium. Puede ser una sala dentro de un edificio sin correspondencia formal, un edificio en el que se manifiesta exteriormente el volumen de la sala, un edificio que tiene la forma de la sala y resuelve el resto del programa funcional sin manifestarlo exteriormente o, finalmente un edificio complejo cuya forma absorbe dos o más salas de música. El segundo dibujo es la sección longitudinal de la sala, recortada sobre un fondo negro para destacar su forma y proporción, todas están a la misma escala y en la misma dirección respecto del escenario para facilitar su lectura y comparación. En el parte inferior de la sección, aparecen cuatro esquemas de la forma y distribución en planta sobre el que destaca la de cada caso de estudio. La forma del techo de las salas de música de los auditorios, expresada a través de la sección longitudinal, es uno de los elementos que caracteriza el espacio musical. El perímetro de la sección, determina su superficie y por tanto, el volumen total interior. Es una herramienta técnica que permite dirigir el sonido reflejado en él, hasta cualquier lugar del interior de la sala, garantizando una distribución homogénea y evitando concentraciones perjudiciales o «sombras acústicas», lugares donde no llegan las primeras reflexiones. IV Geometría de las salas El análisis efectuado permite la elaboración de paralelos de tres de los elementos fundamentales de la tipología de las salas de los auditorium y que definen el espacio musical. El perímetro de la sección y su superficie que establecen el volumen total interior, que es un factor determinante en la reverberación de una sala. La forma y superficie del techo, que interviene directamente en el cálculo de la absorción del sonido, en función de la cualidad reflejante o absorbente del material con el que está construido, y por otra parte en la distribución del sonido en el espacio. Y por último, la forma del suelo de las salas también expresada a través de la sección longitudinal, es otro de los elementos que caracteriza el espacio musical. El modelado del suelo permite mediante distintas pendientes garantizar la correcta visión del escenario y por tanto permite también una buena audición, puesto que la llegada directa del sonido está asegurada. La otra limitación dimensional es el ancho de la grada. Cuando se ha buscado incrementar al máximo la capacidad de una sala, se han establecido graderíos en balcones en voladizo para no penalizar la distancia al escenario, de manera que algunas partes del graderío quedan cubiertas, en detrimento de su calidad acústica al privarlas de las primeras reflexiones que proceden del techo. V Auditórium y ciudad El auditorium es un edificio singular que establece con la ciudad una relación particular y que contiene en su interior una o varias salas especiales destinadas a oír y ejecutar música, a las que se accede a través de otros espacios de carácter social. Han ido evolucionando y modificándose de manera ininterrumpida, dando lugar a edificios de diversa complejidad en su programa y a salas cada vez mas especificas para cumplir mejor su cometido, perfeccionando su sonido y buscando la más elevada musicalidad. Estos edificios disponen de otros ámbitos de relación, son los espacios interiores, vestíbulos y escaleras, generalmente generosos en superficie y espacialidad, previos al espacio musical, corazón del auditorium donde suena la música en condiciones acústicas precisas. También el lugar donde se construyen los auditoriums en las ciudades tiene un especial significado, porque generalmente han buscado interponer espacios abiertos o ajardinados que suavicen el contacto directo con la ciudad y que implican, por otra parte, una preparación de las personas que asisten para escuchar los conciertos. Con el paso del tiempo, la aceptación generalizada de formas afianzadas en la ciudad, será uno de los vehículos que permita contaminar a otros tipos de edificios y alcanzar una libertad formal renovadora de los paisajes urbanos. Conclusiones La disolución del espacio musical convencional pregonado por el pabellón Philips del año 1958, no ha impedido que hoy siga vivo para el arquitecto el reto del proyecto y construcción del auditorium. Hoy conviven experiencias musicales totales; imagen, luz y movimiento, ocupando todo tipo de espacios públicos, cerrados o al aire libre, con la voluntad de conseguir espacios capaces de crear la intimidad y las precisas condiciones ambientales que hagan posible la recreación de las músicas del pasado en una especie de emocionante museo sonoro vivo. Como edificios urbanos, los auditoriums han conseguido un lugar destacado en la iconografía urbana después de un largo camino hasta conseguir el reconocimiento social. Se puede, así, establecer que estos edificios han introducido en la ciudad una nueva manera de expresarse la arquitectura. Que lo inesperado de sus formas y volúmenes en el espacio urbano, o la sorpresa de sus interiores altamente técnicos, justificados para satisfacer las nuevas necesidades impuestas por una audiencia cada vez más y más experta, obtienen la aceptación urbana por su utilidad social y por su capacidad de establecer una relación distinta entre las personas, la ciudad y la naturaleza. Coda Finalmente, el epílogo habla de la metamorfosis del espacio musical y de la convivencia de distintos espacios musicales en la actualidad. Desde la creación de las primeras y sencillas salas de música hasta las grandes salas filarmónicas que se construyen en las últimas décadas, la arquitectura ha proporcionado lugares adecuados para contener y disfrutar la música, espacios que se han modificado según cambiaban las formas musicales. Sin embargo el sonido parece mostrarse reticente a ser encerrado en el espacio y busca aliarse con el tiempo para conseguir un desplazamiento permanente. Seguramente es en el pabellón Philips de Bruselas en 1958 donde se presenta el último intento de la arquitectura de contener la música, que impulsada por tecnologías absolutamente nuevas, se mueve como dardos que atraviesan el espacio en todos los lugares y en todas las direcciones. Desde aquellas décadas centrales del pasado siglo, y superando los mas optimistas intentos de distribuir masivamente la música a través de incipientes tecnologías, se puede afirmar que vivimos en una inmersión sonora universal. Anexos Incluyen, una colección de mapas de la geografía de los auditorios europeos y norte-americanos, referenciados a los periodos de su construcción, y una relación de los auditorios estudiados con referencias bibliográficas. ABSTRACT This doctoral thesis does not only look at the ways in which architecture and music relate with one another; it also seeks to be an exact, scientific study of auditoriums, a building type that first appeared in the 20th century as a place in which to produce and listen to music. It studies concert halls, raised in Europe and the United Stated in the 20th century, for the purpose of recreating older music, that were the result of the evolution of various ancient building types. Auditoriums have a complex heritage of architecture of all times, openair and covered alike, and occupy important spots in cities. They incorporate the technical innovations of their times, and are reflections not only of the music played within them, but also of the societies that built them. Music and architecture share an interest in connecting with nature. Auditorium, a 20th-century Typology tries to define this building typology, and with that, be a practical tool in designing and constructing spaces for music, besides exploring the relationship between the two disciplines, architecture and music, and establishing the foundations for an entire school of thought. It is organized in five chapters, each focusing on a particular aspect of auditoriums, all towards defining a possible typology: I Typology elements. A study of the origin of auditoriums, and of how the different parts of these buildings —the actual concert hall, the foyer, the open spaces— relate with the city and with nature, which is ever present in music and in the origin of auditoriums. II Five sequences. A chronological journey through the 20th century, in periods marked by the two world wars and the consequent crises, with case studies of four exceptional buildings: the Royal Festival Hall (1951), the Kresge Auditorium (1954), the Kulttuuritalo (1958), and the Berlin Philharmonie (1963). III Graphic chronology. A methodical sequence looking at a hundred auditoriums, with each entry presenting images of the concert hall and the building as a whole, and two drawings on the same scale. Each concert hall floor plan shows how the orchestra relates with the audience, and it is compared to the floor plans of the four case-study examples named above. We also see how the hall is set into the building. The second drawing is the longitudinal section of the hall. Ceiling shape much determines the character of concert hall spaces, while technical data like air volume and the amount of absorbent and reflecting materials used have a direct bearing on the reflection of sound and on the overall musical quality of the auditorium. IV Geometry of concert halls. Graphic analysis of the key elements of a music space: the ceiling and the floor plan. The section is a necessary tool for determining the reverberation time of a concert hall, and is closely linked to the shape of the floor plan. In concert halls, there is a strong connection between the ceiling, the walls, and the floor, as there is between different musical instruments. It also includes maps showing where these European and American buildings are located geographically as well as in time. V The auditorium in the city. This chapter presents a series of maps showing the location of auditoriums in the city. They are often located in squares and gardens, open public spaces that serve to emotionally prepare the listener for an imminent musical experience. Time has shown that concert halls have changed the urban landscape and city life. Conclusions As a building type, auditoriums —though «dissolved» by the Philips Pavilion in 1958— remain valid spaces for listening to music. As intimate and unique spaces for social gathering and musical creation, they have done their part in transforming cities. Acoustics play a key role in these technical interiors, but just as important is the rapport that is struck between the musicians and the audience, and between musical works of the past, present, and future. Auditoriums are urban buildings that have been very successful throughout history. They have enriched our cities with surprising shapes and volumes, introduced new interiors in architecture, and struck new relationships between people, the city, and nature. As such, they are necessary. Coda Finally, the epilogue presents the evolution of the music space, from the early simple music halls to the highly complex philharmonic halls of recent years. Architecture has produced spaces for the enjoyment of music that have been modified for new musical creations, while remaining useful for the historical repertoire. Sound, and thus music, has as complex a relationship with space as it does with time. The coda of this thesis is the Philips Pavilion of 1958, perhaps the last attempt to propose a new kind of architecture for music with the latest technology. Annexes The thesis includes a collection of site maps of European and American auditoriums, complete with completion dates and descriptions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El siguiente trabajo parte de la idea que tiene en cuenta al concepto del movimiento como una de las grandes aportaciones de la arquitectura del siglo XX. En contraposición a la arquitectura renacentista que destacaba y basaba sus composiciones en la perspectiva o la arquitectura academicista más estática y contemplativa, en el siglo XX el movimiento está comprometido directamente en la percepción y composición del espacio. En la propia naturaleza del concepto de movimiento se ven implicados otros conceptos tales como las secuencias y los recorridos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La gran cantidad de datos que se registran diariamente en los sistemas de base de datos de las organizaciones ha generado la necesidad de analizarla. Sin embargo, se enfrentan a la complejidad de procesar enormes volúmenes de datos a través de métodos tradicionales de análisis. Además, dentro de un contexto globalizado y competitivo las organizaciones se mantienen en la búsqueda constante de mejorar sus procesos, para lo cual requieren herramientas que les permitan tomar mejores decisiones. Esto implica estar mejor informado y conocer su historia digital para describir sus procesos y poder anticipar (predecir) eventos no previstos. Estos nuevos requerimientos de análisis de datos ha motivado el desarrollo creciente de proyectos de minería de datos. El proceso de minería de datos busca obtener desde un conjunto masivo de datos, modelos que permitan describir los datos o predecir nuevas instancias en el conjunto. Implica etapas de: preparación de los datos, procesamiento parcial o totalmente automatizado para identificar modelos en los datos, para luego obtener como salida patrones, relaciones o reglas. Esta salida debe significar un nuevo conocimiento para la organización, útil y comprensible para los usuarios finales, y que pueda ser integrado a los procesos para apoyar la toma de decisiones. Sin embargo, la mayor dificultad es justamente lograr que el analista de datos, que interviene en todo este proceso, pueda identificar modelos lo cual es una tarea compleja y muchas veces requiere de la experiencia, no sólo del analista de datos, sino que también del experto en el dominio del problema. Una forma de apoyar el análisis de datos, modelos y patrones es a través de su representación visual, utilizando las capacidades de percepción visual del ser humano, la cual puede detectar patrones con mayor facilidad. Bajo este enfoque, la visualización ha sido utilizada en minería datos, mayormente en el análisis descriptivo de los datos (entrada) y en la presentación de los patrones (salida), dejando limitado este paradigma para el análisis de modelos. El presente documento describe el desarrollo de la Tesis Doctoral denominada “Nuevos Esquemas de Visualizaciones para Mejorar la Comprensibilidad de Modelos de Data Mining”. Esta investigación busca aportar con un enfoque de visualización para apoyar la comprensión de modelos minería de datos, para esto propone la metáfora de modelos visualmente aumentados. ABSTRACT The large amount of data to be recorded daily in the systems database of organizations has generated the need to analyze it. However, faced with the complexity of processing huge volumes of data over traditional methods of analysis. Moreover, in a globalized and competitive environment organizations are kept constantly looking to improve their processes, which require tools that allow them to make better decisions. This involves being bettered informed and knows your digital story to describe its processes and to anticipate (predict) unanticipated events. These new requirements of data analysis, has led to the increasing development of data-mining projects. The data-mining process seeks to obtain from a massive data set, models to describe the data or predict new instances in the set. It involves steps of data preparation, partially or fully automated processing to identify patterns in the data, and then get output patterns, relationships or rules. This output must mean new knowledge for the organization, useful and understandable for end users, and can be integrated into the process to support decision-making. However, the biggest challenge is just getting the data analyst involved in this process, which can identify models is complex and often requires experience not only of the data analyst, but also the expert in the problem domain. One way to support the analysis of the data, models and patterns, is through its visual representation, i.e., using the capabilities of human visual perception, which can detect patterns easily in any context. Under this approach, the visualization has been used in data mining, mostly in exploratory data analysis (input) and the presentation of the patterns (output), leaving limited this paradigm for analyzing models. This document describes the development of the doctoral thesis entitled "New Visualizations Schemes to Improve Understandability of Data-Mining Models". This research aims to provide a visualization approach to support understanding of data mining models for this proposed metaphor visually enhanced models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto consistira en la realization de un estudio aciistico sobre la sala 8 de los cines Kinepolis de Ciudad de la Imagen, que dispone de 408 butacas. Los cines Kinepolis es uno de los mayores complejos multisala de Europa. Cuenta con mas de 9.200 butacas en total distribuidas en 25 salas a las que se accede mediante dos grandes pasillos conectados por el hall. En 1998, ano de su apertura, el complejo recibio el Record Guinness a la sala cinematografica mas grande del mundo, que dispone de 996 butacas. El objetivo de este proyecto es conseguir caracterizar acusticamente una sala de cine a traves de la medicion de parametros acusticos de la sala y de un modelo virtual de la misma. Para llevar a cabo el proyecto, primero se van a realizar tanto una medicion geometrica como acustica de la sala mediante el sistema de medida DIRAC. Los resultados de estas mediciones nos serviran para construir y validar un modelo virtual de la sala real con el software de simulacion EASE. La medicion acustica se va a realizar con el sistema de medicion DIRAC. Este sistema nos dara information sobre una amplia variedad de parametros acusticos. En este proyecto no se va a trabajar con todos ellos, solo con los mas significativos. Estos se describen a continuacion en la introduccion teorica. La medicion geometrica nos va a servir para construir un modelo virtual que tenga las mismas dimensiones que la sala original. Esta medicion la realizaremos mediante un medidor laser y una cinta metrica. Una vez construido el modelo virtual, se procedera a su validacion. Este proceso se realiza ajustando el tiempo de reverberacion del modelo mediante la introduccion de distintos materiales acusticos en las superficies del mismo, de manera que, variando la absorcion de la sala, el tiempo de reverberacion promedio del modelo se asemeje lo mas posible al medido en la sala real. Este proceso tiene como objetivo comprobar que el modelo virtual tiene un comportamiento acustico similar al de la sala real. Es necesario validar adecuadamente el modelo para que las comparaciones y conclusiones sean fiables. Por ultimo, tras la simulacion acustica del modelo, se compararan los resultados simulados con los medidos en la sala. En este proceso se contrastaran algunos de los parametros que guardan relation con el tiempo de reverberacion. De esta manera se verificara si el tiempo de reverberacion es o no un parametro acustico fiable para la validacion de un modelo virtual de una sala de cine. Anteriormente se han realizado proyectos iguales de otras salas de diferente tamano de Kinepolis. El objetivo de realizar el mismo estudio en distintas salas, es comprobar si el tamano de la sala influye en la validacion de los modelos virtuales mediante el tiempo de reverberacion. ABSTRACT. This Project consists on the development of an acoustic research of the movie theater 8 of the Kinepolis complex in Ciudad de la Imagen, Madrid. This room has 408 spots. Kinepolis is one of the biggest multiplex complexes in Europe. It has 9,200 locations disposed in 25 rooms. There are two large corridors which give access to all of theaters. In the middle of the structure, there is the main hall that connects these corridors. In 1998, at the time when the complex was open, it was awarded with the Record Guinness for the biggest theater in the world, which has 996 locations. The target of this project is to successfully characterize the acoustics of a movie theater through reverberation time and a virtual model. In order to reach this goal, in the first place, we are going to perform both, an acoustic and a geometric measurement of the room using DIRAC measurement system. The results of these measures will allow us to build and validate a virtual model of the room, using the simulation software EASE. We are going to use the DIRAC system in order to accomplish the acoustic measure. This operation gives us a huge variety of acoustic parameters. Not all of these are going to be used for this research, only the most significant ones. These are described in the theoretical introduction. The geometric measure is essential to help us to build the virtual model, because the model has to be exactly equal as the real room. This measurement will be performed with an electronic distance meter and a measuring tape. Once the virtual model is finished, it will be proved. This validation process will be realized by adjusting the reverberation time in the model. We will change the walls materials, therefore, the overall absorption of the room will change. We want the model reverberation time resemble to the real one. This practice is going to ensure that the model acoustic performance is close to the real one. In addition, it has to be successfully validate of we want the future comparisons to be reliable. Finally, after the model virtual simulation, we will compare the simulated results with the measure in the room. In this process, we will compare not only the reverberation time, but others parameters that keep relation with the reverberation time. We will verify this way, if the reverberation time is or is not an appropriate acoustic parameter to validate a virtual model of a movie theater. There have been done others similar acoustic researches in different theaters with different sizes. The aim of performing similar researches in different rooms is to determine if the size of the room infers in the validation process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el campo del análisis multirresolución de señales, bien sean señales unidimensionales o imágenes, la transformada wavelet (u ondícula) es una de las herramientas más atractivas y potentes debido a su capacidad de análisis de las estructuras y singularidades presentes en una señal cuando esta es analizada en distintas escalas. Este trabajo parte de la investigación de cómo la modificación directa de los coeficientes wavelets permite añadir información en forma de marcas de agua a una imagen o también como con las mismas técnicas se pueden realizar esquemas relativamente sencillos de eliminación de ruido en imágenes. Estas aplicaciones son el primer paso para entender qué información capturan los coeficientes wavelet obtenidos mediante las distintas versiones existentes de transformada wavelet Siguiendo la relación entre el módulo de los coeficientes wavelets resultantes en distintas escalas llegamos a poder caracterizar las singularidades presentes en señales o imágenes con aplicaciones prácticas en campos como el análisis de imágenes mamográficas. Esta relación no es más que el primer paso para enlazar la teoría wavelet con el formalismo multifractal, relación definida en primera instancia a partir de la transforma wavelet de módulo máximo. El análisis entre señal, transformada wavelet de módulo máximo e información local de cada coeficiente wavelet da origen a la contribución principal de este trabajo de tesis que consiste en la estimación directa de distintos parámetros multifractales a partir del cálculo de coeficientes derivados de manera local para cada muestra de una señal o pixel de una imagen. La metodología propuesta se aplica en primer lugar a señales de una dimensión de gran complejidad o irregularidad como son las series financieras y específicamente los valores que componen el índice Dow Jones. El resultado permite la cuantificación de la volatilidad o riesgo asociado a cada uno de esas series. En segundo lugar y como principal aplicación de la metodología de análisis multiescala propuesta, el trabajo de investigación se centra en cómo calcular parámetros multifractales en imágenes que reflejan la estructura de suelos agrícolas. Estas imágenes son obtenidas bien aplicando un tinte especial o mediante modernas técnicas de tomografía axial computarizada. En ambos casos, el objetivo es completar la caracterización estadística de la geometría de los flujos preferenciales de agua y otras sustancias, aspectos claves para el correcto tratamiento de suelos agrícolas. Para validar e interpretar cada uno de los algoritmos desarrollados se utilizan señales multifractales sintetizadas y se comparan los resultados obtenidos en las distintas aplicaciones respecto de algoritmos ya consolidados en cada caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis, Edén: relato, imagen y proyecto. El concepto de Paraíso terrenal como generador de arquitecturas se realiza con el objetivo de estudiar los vínculos entre la idea de Edén, o Paraíso y la arquitectura. Siempre trabajando desde los tres niveles de representación, relato, imagen y proyecto. En la aproximación al objeto de estudio, se procede a estudiar el relato en sí, y se hallan, en la forma misma del relato, unas implicaciones relacionadas con el mundo mitológico y arquetípico. Estos resultados iniciales son la detección de que cada una de las partes que forman el conjunto edénico, han sido previamente objetos de culto en religiones corte pagano o chamánico, desde la prehistoria. El agua, los árboles, los animales, la tierra y los surcos del huerto, todos ellos han sido objetos de veneración desde tiempos inmemoriales. Trazando la genealogía de estos objetos de culto se acude al análisis arquetípico, que relaciona estos objetos venerados con el inconsciente y con la manifestación espontanea de los mismos en la realidad. Estos estudios arrojan resultados con implicaciones espaciales, arquitectónicas y se concluye que más que un ideal o un lugar en concreto, en el mito o en la realidad, lo que definitivamente parece (y demuestra) ser, es una tipología arquitectónica relacionada en su estructura formal y teórica con la del jardín cerrado. La manifestación en imagen de estos resultados y la investigación misma, llevan a acudir a unas de las imágenes más primitivas del Jardín del Edén, y que de hecho son previas a la “invención” del Hortus Conclusus como tal. Estas son las representaciones mozárabes del Paraíso Terrenal como lugar cierto en la tierra, que aparecen en los mappaemundi incluidos en los Códices de los Beatos. En el estudio de los mismos se comprende la estructura formal y teórica de lo que son las arquitecturas paradisíacas. Su calado en la cultura occidental hace que estos documentos sirvan como exoesqueletos del proyecto paradisíaco. Además, por su variedad arrojan gran número de resultados de índole espacial. Los resultados arrojados por el estudio de las representaciones edénicas de los Beatos llevan la investigación a otro momento e imágenes de la historia de la arquitectura donde, por su radicalidad de planteamientos y tabula rasa con las arquitecturas previas son necesarios nuevos lenguajes de aproximación al tema proyectual por el deseo globalizador que implican estas arquitecturas, esto es en el periodo de la arquitectura moderna. Se utiliza como elemento calibrador El poema del ángulo recto de Le Corbusier. Este documento gráfico no sólo nos da la clave que bullía en este periodo con respecto a una nueva aproximación a la superficie terrestre y al medio. Este instrumento también sirve de catalizador entre lo real y lo ideal y es una síntesis de operaciones arquitectónicas, que mediante la comparación y/o oposición con los resultados previos del estudio arquetípico y de los Beatos, genera grandes grupos de características que se hallan entrelazadas en los proyectos paradisíacos. Gracias a estos documentos se puede concluir con una síntesis de características que comparten los proyectos paradisiacos, que en todo caso son esto, proyectos en plural. No existe la unicidad, ya que se infiere de este estudio que son, en conjunto, una forma de hacer ciertas arquitecturas. Tienen características medibles y reproducibles y unas condiciones tipológicas y de generación de campos que permiten producir muchos tipos de proyectos, todos ellos de tipología paradisíaca. ABSTRACT This thesis, Eden: Tale, Image and Project. The Concept of Terrestrial Paradise as a Generator of Architectures, is carried out with the objective of studying the relations between the idea of Eden or Paradise and architecture. In every case working from the three levels of representation, tale, image and project. On the approximation to the object of study, the investigation is centered on the tale itself, and in the same core of it, are found some implications that relate it with the world of mythology and archetype. These initial results consist of detecting that each one of the parts that form the edenic set; have previously been objects of cult in religions of a pagan or shamanic nature, since pre-historic times. Water, animals, earth and the grooves of the orchard, have all been objects of reverence since the dawn of time. Tracing the genealogy of these objects an archetypal type of analysis is taken on, which relates the revered objects with the subconscious and with the spontaneous manifestation of these in reality. These studies also provide results with spatial and architectonic implications, and it is concluded that more than an ideal or a concrete place, in myth or reality, what it definitely seems (and shows to be) is an architectonic typology, related in its formal and theoretical structure with that of the enclosed garden. The manifestation in image of these results, and the investigation itself, lead to reach for one of the most primitive set of images of the Garden of Eden, and that are in fact previous to the “invention” of the Hortus Conclusus as such. A collection of mozárabe representations of the Terrestrial Paradise as a concrete place on Earth. These are the mappaemundi included in the Codexes of the Beatos. By their study, the formal and theoretical structure of paradisal architectures is understood. Their importance in occidental culture makes these documents bring out their side as exoskeletons of the paradisal Project. Also, for their variety, they cast a great number of results of a spatial nature. The results released by the study of the edenic representations of the Beatos take the investigation to another moment and set of images within the history of architecture, where the radicality of the approaches to architecture, and the tabula rasa in relation to previous architectures make it necessary to invent new languages of approximation to the subject of project. This happens because of the globalizing tones that imply these architectures. The lapse of time referred to would be during the general practice of modern architecture. The object of calibration would be The Poem of the Right Angle, by Le Corbusier. The graphic document not only gives us the key of what flowed during that time when a new approximation to the surface of earth and to the environment was retrieved. This instrument also serves as a catalyst between real and ideal, and it is a synthesis of architectural operations that by comparison and/or opposition with the previous results of the archetypal study, and of the Beatos, generates large groups of characteristics that are intertwined in the paradisal project. Due to these documents we can conclude the investigation with a series of characteristics that share the paradisal projects, which in any case are this, projects, in plural. There is no uniqueness. From these findings, it can be inferred that a Paradisal Project is a way to undertake a project, and certain kinds of architecture. They are measurable and are underlaid by a consistent pattern, they also have typological conditions and of field generation, that make it possible to produce many kinds of projects, all of a paradisal typology.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicar la perspectiva del sistema-mundo a los fenómenos de transformación de la ciudad es un enfoque frecuente para aquellos estudios que pretenden indagar en la lógica interna y las contradicciones propias del capitalismo contemporáneo. El capital financiero en su búsqueda permanente de espacios de acumulación recupera los centros urbanos metropolitanos como objetivo de sus estrategias. Los cascos históricos tradicionales otrora devaluados, se convierten ahora en la última oportunidad de negocio precisamente por la posibilidad de explotar la brecha de renta sucesivamente presente en el juego de asimetrías centro-periferia. El desalojo de la población residente más vulnerable y su sustitución por nuevos vecinos/inversores atraídos por las redescubiertas ventajas de la centralidad se apoya en un sofisticado artificio publicitario de trascendencia planetaria. Una operación que se basa en la renovación de los marcos de representación de los valores ciudadanos y la manipulación de las aspiraciones, sentimientos y deseos colectivos según estilos de vida cosmopolitas procedentes de la ficción televisiva. Estos procesos gentrificadores se presentan como modelos de renovación o “regeneración” urbana. Están dirigidos por las grandes corporaciones financieras, las inmobiliarias, los poderes públicos y otros poderes económicos. Dichos agentes expresan claramente sus intenciones de implantar en la ciudad central nuevas y prestigiosas áreas de exclusividad de fuerte carácter urbano y garantizado éxito de público. No obstante los patrones usados para esta supuesta regeneración en lo que a oferta comercial se refiere, y esto es lo que resulta significativo, son idénticos a los aplicados en los centros comerciales propios del suburbio. El uso y los modos de apropiación del espacio que proponen suponen una banalización de la ciudad tradicional y la negación de su diversidad, vitalidad y pluri-funcionalidad características. Es precisamente de estos patrones de los que trata este estudio y sus modos de infiltración en el imaginario social, tratando de desvelar el sentido y los elementos tanto ideológicos como materiales que intervienen en su desarrollo. Se ha elegido como laboratorio vivo para el análisis, el entorno de la calle de Fuencarral donde este fenómeno se ha venido consolidando en los últimos años.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El desarrollo de la tecnología de la luz implicará la transformación de la vida social, cultural y económica. Tanto las consideraciones espaciales del Movimiento Moderno, como los efectos producidos por la segunda Guerra Mundial, tendrán efectos visibles en las nuevas configuraciones espaciales y en la relación simbiótica y recíproca que se dará entre ideología y tecnología. La transformación en la comprensión de la articulación espacial, asociada al desarrollo tecnológico, afectará al modo en que este espacio es experimentado y percibido. El espacio expositivo y el espacio escénico se convertirán en laboratorio práctico donde desarrollar y hacer comprensible todo el potencial ilusorio de la luz, la proyección y la imagen, como parámetros modificadores y dinamizadores del espacio arquitectónico. Esta experimentación espacial estará precedida por la investigación y creación conceptual en el mundo plástico, donde los nuevos medios mecánicos serán responsables de la construcción de una nueva mirada moderna mediatizada por los elementos técnicos. La experimentación óptica, a través de la fotografía, el cine, o el movimiento de la luz y su percepción, vinculada a nuevos modos de representación y comunicación, se convertirá en elemento fundamental en la configuración espacial. Este ámbito de experimentación se hará patente en la Escuela de la Bauhaus, de la mano de Gropius, Schlemmer o Moholy Nagy entre otros; tanto en reflexiones teóricas como en el desarrollo de proyectos expositivos, arquitectónicos o teatrales, que evolucionarán en base a la tecnología y la modificación de la relación con el espectador. El espacio expositivo y el espacio escénico se tomarán como oportunidad de investigación espacial y de análisis de los modos de percepción, convirtiéndose en lugares de experimentación básicos para el aprendizaje. El teatro se postula como punto de encuentro entre el arte y la técnica, cobrando especial importancia la intersección con otras disciplinas en la definición espacial. Las múltiples innovaciones técnicas ligadas a los nuevos fundamentos teatrales en la modificación de la relación con la escena, que se producen a principios del siglo XX, tendrán como consecuencia la transformación del espacio en un espacio dinámico, tanto física como perceptivamente, que dará lugar a nuevas concepciones espaciales, muchas de ellas utópicas. La luz, la proyección y la creación de ilusión en base a estímulos visuales y sonoros, aparecen como elementos proyectuales efímeros e inmateriales, que tendrán una gran incidencia en el espacio y su modo de ser experimentado. La implicación de la tecnología en el arte conllevará modificaciones en la visualización, así como en la configuración espacial de los espacios destinados a esta. Destacaremos como propuesta el Teatro Total de Walter Gropius, en cuyo desarrollo se recogen de algún modo las experiencias espaciales y las investigaciones desarrolladas sobre la estructura formal de la percepción realizadas por Moholy Nagy, además de los conceptos acerca del espacio escénico desarrollados en el taller de Teatro de la Bauhaus por Oskar Schlemmer. En el Teatro Total, Gropius incorporará su propia visión de cuestiones que pertenecen a la tradición de la arquitectura teatral y las innovaciones conceptuales que estaban teniendo lugar desde finales del s.XIX, tales como la participación activa del público o la superación entre escena y auditorio, estableciendo en el proyecto una nueva relación perceptual entre sala, espectáculo y espectador; aumentando la sensación de inmersión, a través del uso de la física, la óptica, y la acústica, creando una energía concéntrica capaz de extenderse en todas direcciones. El Teatro Total será uno de los primeros ejemplos en los que desde el punto de partida del proyecto, se conjuga la imagen como elemento comunicativo con la configuración espacial. Las nuevas configuraciones escénicas tendrán como premisa de desarrollo la capacidad de transformación tanto perceptiva, como física. En la segunda mitad del s.XX, la creación de centros de investigación como el CAVS (The Center for Advanced Visual Studies,1967), o el EAT (Experiments in Art and Technology, 1966), favorecerán la colaboración interdisciplinar entre arte y ciencia, implicando a empresas de carácter tecnológico, como Siemens, HP, IBM o Philips, facilitando soporte técnico y económico para el desarrollo de nuevos sistemas. Esta colaboración interdisciplinar dará lugar a una serie de intervenciones espaciales que tendrán su mayor visibilidad en algunas Exposiciones Universales. El resultado será, en la mayoría de los casos, la creación de espacios de carácter inmersivo, donde se establecerá una relación simbiótica entre espacio, imagen, sonido, y espectador. La colocación del espectador en el centro de la escena y la disposición dinámica de imagen y sonido, crearán una particular narrativa espacial no lineal, concebida para la experiencia. Desde las primeras proyecciones de cine a la pantalla múltiple de los Eames, las técnicas espaciales de difusión del sonido en Stockhausen, o los experimentos con el movimiento físico interactivo, la imagen, la luz en movimiento y el sonido, quedan inevitablemente convertidos en material arquitectónico. ABSTRACT. Light technology development would lead to a social, cultural and economic transformation. Both spatial consideration of “Modern Movement” and Second World War effects on technology, would have a visible aftereffect on spatial configuration and on the symbiotic and mutual relationship between ideology & technology. Comprehension adjustment on the articulation of space together with technology development, would impact on how space is perceived and felt. Exhibition space and scenic space would turn into a laboratory where developing and making comprehensive all illusory potential of light, projection and image. These new parameters would modify and revitalize the architectonic space. as modifying and revitalizing parameters of architectonic space. Spatial experimentation would be preceded by conceptual creation and investigation on the sculptural field, where new mechanic media would be responsible for a fresh and modern look influenced by technical elements. Optical experimentation, through photography, cinema or light movement and its perception, would turn into essential components for spatial arrangement linked to new ways of performance and communication. This experimentation sphere would be clear at The Bauhaus School, by the hand of Gropius, Schlemmer or Moholy Nag among others; in theoretical, theatrical or architectural performance’s projects, that would evolve based on technology and also based on the transformation of the relationship with the observer. Exhibition and perfor-mance areas would be taken as opportunities of spatial investigation and for the analysis of the different ways of perception, thus becoming key places for learning. Theater is postulated as a meeting point between art and technique, taking on a new significance at its intersection with other disciplines working with spatial definition too. The multiple innovation techniques linked to the new foundations for the theater regarding stage relation, would have as a consequence the regeneration of the space. Space would turn dynamic, both physically and perceptibly, bringing innovative spatial conceptions, many of them unrealistic. Light, projection and illusory creation based on sound and visual stimulus would appear as intangible and momentary design components, which would have a great impact on the space and on the way it is experienced. Implication of technology in art would bring changes on the observer as well as on the spatial configuration of the art spaces2. It would stand out as a proposal Walter Groupis Total Theater, whose development would include somehow the spatial experiments and studies about formal structure of perception accomplished by Moholy Nagy besides the concepts regarding stage space enhanced at the Bauhaus Theater Studio by Oskar Schlemmer. Within Total Theater, Groupis would incorporate his own view about traditional theatric architecture and conceptual innovations that were taking place since the end of the nineteenth century, such as active audience participation or the diffusing limits between scene and audience, establishing a new perception relationship between auditorium, performance and audience, improving the feeling of immersion through the use of physics, optics and acoustics, creating a concentric energy capable of spreading in all directions. Total Theater would be one of the first example in which, from the beginning of the Project, image is combined as a communicating element with the spatial configuration. As a premise of development, new stage arrangement would have the capacity of transformation, both perceptive and physically. During the second half or the twentieth century, the creation of investigation centers such as CAVS (Center for Advanced Visual Studies, 1967) or EAT (Experiments in Art and Technology, 1966), would help to the interdisciplinary collaboration between art and science, involving technology companies like Siemens, HP, IBM or Philips, providing technical and economic support to the development of new systems. This interdisciplinary collaboration would give room to a series of spatial interventions which would have visibility in some Universal Exhibitions. The result would be, in most cases, the creation of immersive character spaces, where a symbiotic relationship would be stablished between space, image, sound and audience. The new location of the audience in the middle of the display, together with the dynamic arrangement of sound and image would create a particular, no lineal narrative conceived to be experienced. Since the first cinema projections, the multiple screen of Eames, the spatial techniques for sound dissemination at Stockhausen or the interactive physical movement experimentation, image, motion light and sound would turn inevitably into architectural material.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1. Nuestra investigación se centra en el estudio de los “ámbitos o espacios intermedios” en momentos de la arquitectura contemporánea, en un período de transición entre finales de los años 80 y nuestros días. Pretendemos analizar cómo se presenta el ámbito intermedio en el objeto o lugar arquitectónico y su función o relación con el entorno cercano, desde el proyecto hasta su repercusión en la experiencia vivida. 2. El concepto de intermedio entendido como ámbito o espacio intersticial, fronterizo y ambivalente (o multivalente), atraviesa en la presente investigación el campo de la etimología, de la ciencia, del pensamiento y del arte, para detenerse en la arquitectura actual, llevándose a cabo una indagación concreta en el proceso de concepción, en la propuesta formal, espacial y funcional, así como en la percepción y demás experiencias o vivencias en el lugar arquitectónico. 3. En primer lugar nos proponemos estudiar y explorar el concepto de “intermedio” en sus características, funciones y ubicaciones dentro de la cultura contemporánea, detectando sus antecedentes culturales más importantes, para a continuación aplicarlo reflexivamente a obras significativas de arquitectura. La investigación se enfoca en la modalidad figural (imprecisa) de lo intermedio (en alusión al “figural” deleuziano), cuyas metáforas base son lo translúcido, la penumbra y la espuma, vinculadas al actual paradigma cultural de la complejidad (C. Jencks). A continuación se analizan las relaciones o implicaciones de dicha modalidad figural en obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel y Bos, y Siza, comprobando su valor operativo y poniendo de manifiesto su sentido e importancia en la actualidad y en la disciplina. El estudio tiene como trasfondo el concepto de in-between de la obra de Eisenman, y utiliza conceptos de la filosofía del límite de Trías como algunos de sus principales fundamentos. 4. En cada una de las obras de arquitectura presentadas esta modalidad imprecisa se traduce en un ámbito o espacio intermedio figural específico. Son obras en las que real y virtual, matricial y objetual, arquitectura y territorio, existente y nuevo, colectivo e individual, social e íntimo, interior y exterior, y demás usos y funciones se entrelazan o funden. Son arquitecturas cuya geometría ya no se encuentra tan determinada por aspectos bi o tridimensionales del dibujo o de la construcción. A través de la manipulación de estas geometrías más o menos complejas, dinámicas e intersticiales, estas obras reflejan (o intuyen) las premisas del actual Zeitgeist: un cambio de esquemas de objetos a relaciones basado en un pensamiento más holístico, transdisciplinar, sistémico o complejo (E. Morin), y una nueva conciencia colectiva sobre la realidad que anuncia la crisis de la percepción, el cambio de paradigma y nuevos valores (F. Capra). Emerge otra forma de sentir y percibir el mundo, los lugares y los espacios, que poco a poco está cambiando el modo de pensar y dibujar la arquitectura, y consecuentemente de interaccionar con ella. 5. El sentido del espacio intermedio figural, emerge en las cada vez más complejas cualidades morfológico-espaciales y funcionales de una parte importante de la arquitectura actual. Arquitectura, geometría y tecnología informática están más entrelazadas que nunca, y de un modo más libre, para así poder indagar en nuevas formas de pensar y crear lugares en que los “espacios intermedios” que investigamos son un testimonio. El espacio arquitectónico se vuelve afectivo e interactivo, un lugar intermedio figural, formalizado por espacialidades intersticiales que parecen aludir a lo líquido, donde la forma es más matriz que configuración, el espacio más espacialidad que compartimiento, la función más versátil y multivalente que específica o autónoma, y la perplejidad, la imaginación y la evocación se entrecruzan y vuelven patentes. 6. La arquitectura de los lugares intermedios valora no solamente el “plano”, la “configuración” y la “transparencia”, sino sobre todo el “espacio” y la “relación” en sus interrelaciones con los usuarios y demás contextos. De la identidad a la relacionalidad, de la representación a la presentación, es una arquitectura que propone “otros espacios” que más que espacios son topografías y espacialidades intersticiales, de tensión, transición, transformación, relación, intercambio e interacción. Son lugares intermedios reales y virtuales, que se sirven tanto de la morfología como de la topología para conquistar nuevas espacialidades, pretendiendo salir de la estricta operación de “forming”/”morphing”/formación/”conformación” para explorar la de “spacing”/espaciamiento. Son lugares que se basan en conceptos como la zona de indiscernibilidad de Deleuze, la imagen- flujo de Buci-Glucksmann, la suspensión-entre de Sloterdijk, o el espacio no-objetivo al que se refiere José Gil, plasmándose en la arquitectura contemporánea como tropos de lo intersticial. 7. Son los lugares intermedios de la arquitectura actual, de espacialidad háptica, más “afectiva”, generativa e interactiva, donde ese ámbito intermedio transforma y es transformado, “afecta”, “con-mueve” (nos hace mover/accionar) y evoca otros lugares, otras posibilidades de espacio habitable u ocupable. Emerge lo intermedio como lugar, algo que anuncia y exhibe, de manera paradigmática y manifiesta, el monumento de Eisenman en Berlín. ABSTRACT 1. Our research focuses on the study of “in-between spaces or environments” at particular times in contemporary architecture, in a transition period from the end of the 1980’s through to today. We aim to analyse how in-between environments are presented in the architectural object or place and their function or their relationship with the nearby surroundings, from the project through to the experience had. 2. In this research, the in-between concept, understood as an interstitial, border and ambivalent (or multi-purpose) environment or space, is assessed from the viewpoint of etymology, science, thought and art, to conclude in current architecture, with specific exploration of the conception process, of the formal, spatial and functional proposal, together with the perception and other experiences in the architectural place. 3. Firstly, we aim to study and explore the “in-between” concept as regards its features, functions and locations within contemporary culture, revealing its most important cultural background, to then apply it reflexively to important works of architecture. The research focuses on the figural (imprecise) mode of in-between (in allusion to Deleuze’s “figural” approach) whose base metaphors are the translucent, semi-darkness and foam, linked to the current cultural paradigm of complexity (C. Jenks). We then go on to assess the relationships or implications of said figural mode in architectural works by Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel and Bos, and Siza, verifying their operational worth and revealing their meaning and importance today and in this discipline. The backdrop of the study is the in-between concept of Eisenman’s work and it also uses concepts from the philosophy of the limit of Trías as its main underpinnings. 4. In each of the architectural works presented, this imprecise mode is translated into a specific in-between environment or space. They are works in which real and virtual, matricial and objectual, architecture and territory, existing and new, collective and individual, social and intimate, interior and exterior and other uses and functions all intertwine or blend together. They are architectures the geometry of which is not so much determined by bi- or tri-dimensional aspects of the drawing or construction. Through the manipulation of these more or less complex, dynamic and interstitial geometries, these works reflect (or insinuate) the premises of the current Zeitgeist: A change in the scheme of objects to relationships towards a more holistic, transdisciplinary, systemic or complex thought (E. Morin), and a new collective conscience about the reality which announces the crisis of perception, the change in paradigm and new values (F. Capra). Another way of feeling and perceiving the world, places and spaces, which little by little is changing the way of thinking and drawing architecture and hence of interacting with it. 5. The meaning of figural in-between space emerges in the increasingly complex, morphological-spatial and functional qualities of a large part of architecture today. Architecture, geometry and computer technology are more than ever intertwined in a freer way to inquire into other ways of thinking and making places, where the “in-between” spaces we research are a testimony. Architectural space becomes affective and interactive, a figural in-between place, formed by interstitial spatiality which seems to allude to something liquid, where shape is more matrix than configuration, space more spatiality than compartment, its function more versatile and multi-purpose than specific or autonomous, and perplexity, imagination and evocation criss-cross each other, becoming obvious. 6. The architecture of in-between places values not only “flat”, “configuration” and “transparency”, but above all “space” and the “relationship” in its interrelations with users and other contexts. From identity to relationality, from representation to presentation, it is an architecture that proposes “other spaces”, which more than spaces are topographies and interstitial spatialities, of tension, transition, transformation, relation, exchange and interaction. They are real and virtual in-between places, that take in both morphology and topology to conquer new spatialities, aiming to depart from the strict “forming”/”morphing” operation in order to explore “spacing”. They are places that derive both from Deleuze’s indiscernibility zone concept, from Buci-Glucksmann´s image-flow concept, from Sloterdijk’s suspension-between, and from the non-objective space referred to by José Gil, and they are embodied in contemporary architecture as tropes of the interstitial. 7. They are the in-between places in architecture today, of haptic spatiality, more “affective”, generative and interactive, where that in-between environment transforms and is transformed, “affects”, “moves” (it makes us move/act) and evokes other places, other possibilities of habitable or occupiable space. The in-between emerges as a place, which paradigmatically and declaredly, Eisenman´s monument in Berlin announces and exhibits. RESUMO 1. A investigação centra-se no estudo dos “âmbitos ou espaços intermédios” em momentos da arquitectura contemporânea, no período de transição entre os finais dos anos 80 e os nossos dias. Pretende-se analisar como se apresenta o âmbito intermédio no objecto ou lugar arquitectónico e sua função ou relação com o meio envolvente, desde o projecto até à sua repercussão na experiencia vivenciada. 2. O conceito de intermédio entendido como âmbito ou espaço intersticial, fronteiriço e ambivalente (ou multivalente), atravessa na presente investigação o campo da etimologia, da ciência, do pensamento e da arte, para deter-se na arquitectura actual, realizando-se uma indagação concreta no processo de concepção, na proposta formal, espacial e funcional, assim como na percepção e demais experiencias ou vivencias no lugar arquitectónico. 3. Em primeiro lugar, explora-se o conceito de “intermédio” nas suas características, funções e concretizações na cultura contemporânea, detectando os seus antecedentes culturais mais importantes, para em seguida aplicá-lo reflexivamente a obras significativas de arquitectura. A investigação centra-se na modalidade figural (imprecisa) do intermédio (alusão ao figural deleuziano) cujas metáforas base são o translúcido, a penumbra e a espuma, relacionadas com o actual paradigma da complexidade (C. Jencks). Em seguida analisam-se as relações ou implicações da referida modalidade figural em obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel e Bos, e Siza, como modo de comprovar o seu valor operativo e revelar o seu sentido e importância na actualidade e na disciplina. O estudo tem como referencia o conceito de in-between da obra de Eisenman, e utiliza conceitos da filosofia do limite de Trias como alguns dos seus principais fundamentos. 4. Em cada uma das obras de arquitectura apresentadas esta modalidade imprecisa traduz-se num âmbito ou espaço intermédia figural especifico. São obras nas quais real e virtual, matricial e objectual, arquitectura e território, existente e novo, colectivo e individual, social e intimo, interior e exterior, e outros usos e funções se entrelaçam ou fundem. São arquitecturas cuja geometria já não está tão determinada por aspectos bi ou tridimensionais do desenho ou da construção. Através do uso destas geometrias mais ou menos complexas, dinâmicas e intersticiais, estas obras reflectem (ou intuem) as premissas do actual zeitgeist: uma mudança de esquemas de objectos a relações para um pensamento mais holístico, transdisciplinar, sistémico ou complexo (E. Morin) e uma nova consciência colectiva sobre a realidade, que anuncia a crise da percepção, a mudança de paradigma e novos valores (F. Capra). Emerge uma outra forma de sentir e perceber o mundo, os lugares e os espaços, que gradualmente vai alterando o modo de pensar e desenhar a arquitectura, e consequentemente de interagir com ela. 5. O sentido do espaço intermédio figural, emerge nas cada vez mais complexas qualidades morfológico-espaciais e funcionais de uma parte importante da arquitectura actual. Cada vez mais, arquitectura, geometria e tecnologia informática, relacionam-se de um modo mais livre para indagar outras formas de pensar e fazer lugares, onde os espaços intermédios que investigamos são um testemunho. O espaço arquitectónico torna-se afectivo e interactivo, um lugar intermédio figural, formalizado por espacialidades intersticiais que parecem aludir ao estado liquido, onde a forma é mais matriz que configuração, o espaço mais espacialidade que compartimento, a função mais versátil e multivalente que especifica ou autónoma, e a perplexidade, a imaginação e a evocação entrecruzam-se e tornam-se patentes. 6. A arquitectura dos lugares intermédios valoriza não só o “plano”, a “configuração” e a “transparência”, mas sobretudo o” espaço” e a ”relação” nas suas inter-relações com os utentes e restante contextos. Da identidade à relacionalidade, da representação à apresentação, é uma arquitectura que propõe “outros espaços”, que além de espaços são topografias e espacialidades intersticiais, de tensão, transição, transformação, relação, intercambio e interacção. São lugares intermédios reais e virtuais que utilizam tanto a morfologia como a topologia para conquistar novas espacialidades, pretendendo ultrapassar a estrita operação de “forming”/“morphing”/formação para explorar a de “spacing”/espaçamento. São lugares que se apoiam tanto no conceito de zona de indescernibilidade de Deleuze, como na de imagem-fluxo de Buci-Glucksmann como no de suspensão–entre de Sloterdijk ou de espaço-não objectivo que refere José Gil, e se plasmam na arquitectura contemporânea como tropos do intersticial. 7. São os lugares intermédios da arquitectura actual, de espacialidade háptica, mais “afectiva”, generativa e interactiva, onde esse âmbito intermédio transforma e é transformado, “afecta”, ”co-move “(nos faz mover/agir) e evoca outros lugares, outras possibilidades de espaço habitável ou ocupável. Emerge o intermédio como lugar que, paradigmática e manifestamente, o monumento de Eisenmann em Berlim, anuncia e exibe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Toda política con capacidad de transformación social tiene su correlato (consciente o inconsciente) en la escala física de la ciudad y el territorio. Es en esta escala en la que los ciudadanos encuentran satisfacción a sus necesidades y demandas o donde éstas se ven frustradas. No parece posible definir una nueva política que no tenga en cuenta el Espacio Urbano sobre el que tiene que desplegarse y que no busque su modificación de manera paralela a las transformaciones sociales que pretende acometer, necesitando por tanto un planeamiento urbano que visibilice su proyecto de transformación.