13 resultados para Neoclassical realism

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el día de hoy nos enfrentamos a una serie de desafíos económicos, geopolíticos y ambientales que apuntan hacia una transformación profunda del mundo tal y como lo conocemos. La arquitectura esta – siempre lo ha estado – imbricada en todos estos problemas. En nuestra actual condición de recursos limitados e injusticia global surge la necesidad de superar la dicotomía entre progreso y tradición, entre innovación y preservación – la urgencia de redefinir incluso cada uno de estos términos. Los tipos de crisis que encaramos ahora no se resolverán con mas tecnología y más crecimiento – se necesita también una profunda reevaluación de nuestros sistemas de valores e incluso de nuestra sensibilidad. En este contexto, la humilde contribución de esta tesis consiste en proponer la idea de un realismo en arquitectura, entendido como una actitud progresista y atenta a lo que ya existe, dispuesta a abrir los ojos al presente, a las condiciones y los problemas reales que nos rodean. Pensando en esta idea, resulta evidente que si bien el realismo carece de una definición clara en el campo de la arquitectura hoy, cuenta sin embargo con numerosos precedentes parciales, entre ellos algunos de los más notorios episodios de la historia de la arquitectura reciente. Al intentar confeccionar una lista provisional de arquitectos realistas en el último siglo, otro hecho se nos presenta: muchos, por no decir todos estos arquitectos, comparten una fijación por la fotografía, bien apropiándose del trabajo de fotógrafos contemporáneos, bien tomando sus propias imágenes como una forma de mirar fuera de sus estudios e incorporar la realidad del medio construido a sus proyectos. Parece entonces lógico pensar que la arquitectura, como disciplina visual, ha acudido a otra disciplina visual en búsqueda de su propia respuesta al problema del realismo – dentro de este campo la fotografía reverbera con la arquitectura especialmente, ya que ambas son consideradas simultáneamente como practicas utilitarias y como parte de las bellas artes. Parece entonces lógico el organizar la investigación como una serie de casos, con la esperanza de que la acumulación de diversas instancias en las que la arquitectura ha acudido a la fotografía en su búsqueda de un realismo arrojara luz sobre las ideas más generales a debate. Por tanto, cada uno de los episodios en este texto se examina en sus propios términos, si bien una serie de interconexiones emergen a medida que el estudio procede con un suave orden cronológico. Hacia el final del texto cuestiones más grandes recobran protagonismo, a medida que las repercusiones políticas de nuestro estudio se hacen más patentes y comenzamos a interrogar las implicaciones contemporáneas y el potencial futuro de nuestra discusión sobre el realismo. ABSTRACT Today we are faced with a series of economic, geopolitical and environmental challenges that outline a deep transformation of the world as we know it. Architecture is – it has always been – ingrained in all of these problems. In our current condition of limited resources and global inequalities there is a necessity to overcome the dichotomy between progress and tradition, between innovation and preservation – an urgency to even redefine these terms altogether. The types of crises that we are facing will not be solved with more technology and more growth – a deep reevaluation of our systems of values and our sensibilities are also needed. In this context, the humble contribution of this text is to put forward the idea of an architectural realism, understood as an attitude that is both progressive and attentive to what is already in place, willing to open its eyes to the present and accept the real conditions and problems around us. In thinking about this prospect, it immediately becomes apparent that even if realism lacks a clear definition in the field of architecture today, there are numerous partial precedents for it, among them some of the most notorious episodes in the recent history of architecture. In crafting a tentative list of realist architects in the last century, another realization takes place: many, not to say all of these architects, have had a fixation with photography, either appropriating the work of contemporary photographers or taking photographs themselves as a way to look out their windows and bring the reality of the built environment into their practices. It seems then logical to think that architecture, as a visual discipline, has looked to other visual disciplines in search for its own take on the problem of realism – within this field, photography specially resonates with architecture, since both are regarded simultaneously as utilitarian practices and belonging to the fine arts. The idea then becomes to organize the research as a series of cases, with the hope that the accumulation of diverse instances in which architecture has approached photography in its realist drive will shed some light on the larger ideas at stake. Therefore, each of the episodes in this text is examined on its own terms, with a series of interconnections slowly emerging as our survey proceeds with a soft chronologic order. Towards the end of the study, larger issues regain relevance as the political repercussions of our inquiry become more pressing and we start to question the contemporary implications and future potentials of our discussion on realism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Any scientific publication aims to advance the field of knowledge that it deals with, and therefore the editorial staff will always be seeking the most revolutionary papers among all of those received. On the other hand, the reviewers’ task is usually a much more conservative one, as reviewers are responsible for verifying the realism of the methods proposed and the veracity of the claimed results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta investigación es desarrollar una metodología para estimar los potenciales impactos económicos y de transporte generados por la aplicación de políticas en el sector transporte. Los departamentos de transporte y otras instituciones gubernamentales relacionadas se encuentran interesadas en estos análisis debido a que son presentados comúnmente de forma errónea por la insuficiencia de datos o por la falta de metodologías adecuadas. La presente investigación tiene por objeto llenar este vacío haciendo un análisis exhaustivo de las técnicas disponibles que coincidan con ese propósito. Se ha realizado un análisis que ha identificado las diferencias cuando son aplicados para la valoración de los beneficios para el usuario o para otros efectos como aspectos sociales. Como resultado de ello, esta investigación ofrece un enfoque integrado que incluye un modelo Input-Output de múltiples regiones basado en la utilidad aleatoria (RUBMRIO), y un modelo de red de transporte por carretera. Este modelo permite la reproducción con mayor detalle y realismo del transporte de mercancías que por medio de su estructura sectorial identifica los vínculos de las compras y ventas inter-industriales dentro de un país utilizando los servicios del transporte de mercancías. Por esta razón, el modelo integrado es aplicable a diversas políticas de transporte. En efecto, el enfoque se ha aplicado para estudiar los efectos macroeconómicos regionales de la implementación de dos políticas diferentes en el sistema de transporte de mercancías de España, tales como la tarificación basada en la distancia recorrida por vehículo-kilómetro (€/km) aplicada a los vehículos del transporte de mercancías, y para la introducción de vehículos más largos y pesados de mercancías en la red de carreteras de España. El enfoque metodológico se ha evaluado caso por caso teniendo en cuenta una selección de la red de carreteras que unen las capitales de las regiones españolas. También se ha tenido en cuenta una dimensión económica a través de una tabla Input-Output de múltiples regiones (MRIO) y la base de datos de conteo de tráfico existente para realizar la validación del modelo. El enfoque integrado reproduce las condiciones de comercio observadas entre las regiones usando el sistema de transporte de mercancías por carretera, y que permite por comparación con los escenarios de políticas, determinar las contribuciones a los cambios distributivos y generativos. Así pues, el análisis estima los impactos económicos en cualquier región considerando los cambios en el Producto Interno Bruto (PIB) y el empleo. El enfoque identifica los cambios en el sistema de transporte a través de todos los caminos de la red de transporte a través de las medidas de efectividad (MOEs). Los resultados presentados en esta investigación proporcionan evidencia sustancial de que en la evaluación de las políticas de transporte, es necesario establecer un vínculo entre la estructura económica de las regiones y de los servicios de transporte. Los análisis muestran que para la mayoría de las regiones del país, los cambios son evidentes para el PIB y el empleo, ya que el comercio se fomenta o se inhibe. El enfoque muestra cómo el tráfico se desvía en ambas políticas, y también determina detalles de las emisiones de contaminantes en los dos escenarios. Además, las políticas de fijación de precios o de regulación de los sistemas de transporte de mercancías por carretera dirigidas a los productores y consumidores en las regiones promoverán transformaciones regionales afectando todo el país, y esto conduce a conclusiones diferentes. Así mismo, este enfoque integrado podría ser útil para evaluar otras políticas y otros países en todo el mundo. The purpose of this research is to develop a methodological approach aimed at assessing the potential economic and transportation impacts of transport policies. Transportation departments and other related government parties are interested in such analysis because it is commonly misrepresented for the insufficiency of data and suitable methodologies available. This research is directed at filling this gap by making a comprehensive analysis of the available techniques that match with that purpose. The differences when they are applied for the valuation of user benefits or for other impacts as social matters have been identified. As a result, this research presents an integrated approach which includes both a random utility-based multiregional Input-Output model (RUBMRIO), and a road transport network model. This model accounts for freight transport with more detail and realism because its commodity-based structure traces the linkages of inter-industry purchases and sales that use freight services within a given country. For this reason, the integrated model is applicable to various transport policies. In fact, the approach is applied to study the regional macroeconomic effects of implementing two different policies in the freight transport system of Spain, such as a distance-based charge in vehicle-kilometer (€/km) for Heavy Goods Vehicles (HGVs), and the introduction of Longer and Heavier Vehicles (LHVs) in the road network of Spain. The methodological approach has been evaluated on a case by case basis considering a selected road network of highways linking the capitals of the Spanish regions. It has also considered an economic dimension through a Multiregional Input Output Table (MRIO) and the existing traffic count database used in the model validation. The integrated approach replicates observed conditions of trade among regions using road freight transport systems that determine contributions to distributional and generative changes by comparison with policy scenarios. Therefore, the model estimates economic impacts in any given area by considering changes in Gross Domestic Product (GDP), employment (jobs), and in the transportation system across all paths of the transport network considering Measures of effectiveness (MOEs). The results presented in this research provide substantive evidence that in the assessment of transport policies it is necessary to establish a link between the economic structure of regions and the transportation services. The analysis shows that for most regions in the country, GDP and employment changes are noticeable when trade is encouraged or discouraged. This approach shows how traffic is diverted in both policies, and also provides details of the pollutant emissions in both scenarios. Furthermore, policies, such as pricing or regulation of road freight transportation systems, directed to producers and consumers in regions will promote different regional transformations across the country, and this lead to different conclusions. In addition, this integrated approach could be useful to assess other policies and countries worldwide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde los orígenes, la construcción popular ha vivido al lado --a veces, dentro-- de la arquitectura culta, encargándose de dar noticia y alojo a lo más vital de la existencia y poniéndose al servicio de lo construido para la pura representación. El interés por incorporar intelectualmente los depósitos plásticos, constructivos y funcionales de esa arquitectura anónima ha sido determinante para la configuración del Ciclo Moderno. Esta tesis se focaliza en la arquitectura que se hizo en la España de mediados del pasado siglo y que, de la mano de arquitectos como Fisac, Coderch, De la Sota y Fernández del Amo, entre otros, concretó un momento dulce en nuestra manera del construir y de habitar, fundamentado en una nueva mirada a lo popular, que supuso una contestación desde el realismo al tipismo de la Reconstrucción, la arquitectura monumentalista de la década de los 40. A partir del estudio sobre ese momento concreto de la arquitectura, nuestro campo reflexivo se amplía, por un lado, hacia la arquitectura de la Vanguardia de la II República (a la que, en cierto modo, se remite) y, por otro, hacia la rama de la arquitectura del Desarrollismo de los años 60, en la que continuó la invocación a lo popular como sustancia del proyecto, si bien entendida ahora en un sentido más amplio. La arquitectura de los maestros que articulan nuestro trabajo, entró de lleno en el debate sobre lo contextual, que acabará oficializándose tras la crisis del Movimiento Moderno acaecida sobre las ruinas de la II Guerra Mundial. El motivo de esta tesis es intentar hacer aflorar los útiles proyectuales de estas arquitecturas empeñadas en el arraigo, particularmente en un momento como el actual, en el que están experimentando un interesante renacer global. ABSTRACT From its origins, popular or traditional architecture has lived next door -- sometimes within-- high architecture, in charge of hosting and providing information about the most vital part of human existence, serving to what is built just for purely representative matters. Such an interest in intellectually incorporating the plastic, constructive and functional deposits from anonymous architecture has been instrumental in the configuration of the Modern Architectural Cycle. This thesis focuses on the architecture made in Spain halfway through the last century. Our way of building and living went through an extraordinary period by means of the work of architects such as Fisac, Coderch, De la Sota and Fernández del Amo, among others. Their projects, based on a new look at our popular material, became a rejoinder from realism to the picturesque model of the so-called Reconstrucción, the monumental architecture of the 40s. From the study of this particular architectural moment, the objective of our reflection widens, on the one hand, to the architecture of the Avantgarde of the II Spanish Republic (to which it somehow refers) and, secondly, to a branch of the architecture of the 60s (when an extraordinary development boom took place in Spain) which kept on relying on the popular as the essence of the project, although now understood in a broader sense. The architecture of the masters who articulate our work, engaged fully in the debate on the role of context which will eventually be formalized after the crisis of the Modern Movement occurred on the ruins of World War II. The purpose of this thesis is to try to bring out some of the project tools from these architectures committed to roots, particularly now, when they are experiencing an interesting overall reborn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acercarse a las obras de José M. García de Paredes, y mirarlas como un conjunto de ideas que nos indican una manera de pensar y de hacer arquitectura, nos explica un ideario que persiste en el tiempo. Tomando prestado el término “explicar” en el sentido que Stravinski le da en su Poética musical1: desplegar, desarrollar, describir una cosa, descubrir y aclarar su génesis, se comprueban las relaciones que cosas aparentemente dispersas tienen entre si, cómo se originan las obras para saber cómo determinan la arquitectura, una vez que ésta tiene vida propia y uso, pasado el tiempo. El motivo de esta tesis se encuentra en el orden, análisis y estudio de su archivo, realizado a partir del año 1990. García de Paredes, titulado en Madrid, fue arquitecto entre 1950 y 1990 y se inició en la arquitectura en un tiempo tan complejo como el actual. No fue un teórico de la arquitectura, si bien conoció en profundidad su teoría y dejó escritos y reflexiones sobre la manera de abordar el proyecto. Quizás no fue un arquitecto radicalmente innovador y sus obras son silenciosas, aunque muchas encierran planteamientos rotundos que permanecen voluntariamente en penumbra. Sin embargo sus obras son nítidas, tienen el valor de la coherencia y son valiosas por el conocimiento y por los valores que transmiten. Han cumplido su objetivo y ahora son parte de los lugares para los que se construyeron y parte de la vida de las personas para las que se proyectaron. En gran medida, poseen ya la pátina del tiempo. Su obra, no muy extensa, aúna ideas necesarias para abordar la práctica del proyecto y para llegar a ese voluntario resultado final en el que la arquitectura sea, además de una expresión personal, una actividad social capaz de hacer mejor la vida de las personas. Mirar la arquitectura de García de Paredes a través del estudio de todas las cuestiones que intervienen en ella y convertir su conocimiento en un instrumento útil de trabajo en el proyecto, es el objetivo de esta tesis. Así se analizan determinadas obras para exponer temas de antes y de ahora, ideas que son a la vez antiguas y contemporáneas. Este ideario sobre la arquitectura de García de Paredes no pertenece sólo a un tiempo, pues la bella utilidad social de la arquitectura y cómo llegar a ella a través del conocimiento y de la economía intelectual, sigue vigente. Y este objetivo tiene claramente una segunda lectura, pues al poner en valor el ideario de su obra, la presente tesis constituye tanto un homenaje como un agradecimiento al arquitecto. Sintetizar este ideario ha necesitado tanto del tiempo para organizar un archivo como de la práctica de la arquitectura para constatarlo. Durante una década, entre 1981 y 1990, trabajé en el estudio de José M. García de Paredes, con la mirada enfocada hacia los proyectos que entonces se desarrollaban en su estudio. En esos años, la música y las secciones de las salas de concierto llenaban las mesas de dibujo. En 1990, tras su inesperada marcha, me encontré con un legado de documentos que constituyen un fragmento de la arquitectura contemporánea española, que encierran la explicación de proyectos y planteamientos que son respuesta clara a la realidad de su momento. La preparación entonces de la documentación para las tres monografías sobre su obra me llevó a ordenar, clasificar y a documentar los fondos del estudio de manera sistemática y cronológicamente. Los documentos, conservados en archivadores y tubos sin numerar, desvelaban una obra en un momento en el cual el escenario de fondo del debate sobre arquitectura era ético. De manera casi artesanal y próximo de un grupo coherente de arquitectos, algunos vinculados también a las artes plásticas, García de Paredes utiliza los medios materiales a su alcance, interpretando la realidad de una forma personal, alejada de la frialdad del movimiento moderno estricto, con una voluntad de mejorarla y de prescindir de todo aquello que no fuera necesario. Las obras dan respuesta a esa realidad de tal manera que la transforman, como si de un “mágico realismo” se tratara. Estos documentos con olor a antiguo, más que narrar una historia, explican la manera en que se ha hecho esa historia, cómo las biografías y los acontecimientos se entrelazan para llegar al conocido resultado final. Y de un primer análisis, disponiéndolos a la vista de un mismo tiempo, va surgiendo otro interés que no es el de explicar su obra sino el de observar el proceso de trabajo de un arquitecto para desvelar un método de proyecto. Sobre el método de trabajo de un músico, Azorín se pregunta en su artículo “Vida imaginaria de Falla”: “Es fácil ver trabajar a un pintor, no es tan fácil ver enfrascado en su labor a un literato, aunque en las redacciones solamos ver cómo escribe un poeta que hace artículos para un periódico. ¿Pero cómo imaginamos a un músico en su tarea?. ¿Cómo escribe un músico?. ¿Es que siente de pronto un arrebato lírico y un poco desmelenado, los músicos deben llevar el pelo largo, se sienta al piano y comienza a tañer como una inspirada pitonisa?. ¿es que se levanta a media noche y, arrebatado por la inspiración y a la luz de la luna, si la hay, escribe febrilmente esas garrapatitas que vemos en los hilos telegráficos de la música?" Manuel de Falla en una carta le responde: “Nada de eso, mi querido amigo, mi trabajo de compositor no es tan misterioso como usted imagina: podría compararse al de un escritor que fuera a la vez arquitecto”. ¿Y cómo trabaja un arquitecto?. La complejidad del proceso arquitectónico nos presenta sin embargo resultados finales que sólo a través de una observación minuciosa permiten entrever el recorrido desde el pensamiento hasta la obra acabada. El escritor narra lo que ve o imagina y el arquitecto construye y da forma a esa realidad o a esos deseos y para ello debe mirar, escuchar y debe saber hacer. Analizar este proceso nos lleva inexorablemente a desvelar las claves que hacen valiosas determinadas arquitecturas. En junio de 1986 García de Paredes escribe el texto “Tres paisajes con arquitecturas”4. El texto describe tres paisajes culturales diferentes en distintos tiempos. El primero que describe es el Madrid neoclásico y el significado que tiene en este paisaje el Museo del Prado. El segundo paisaje se denomina “Alhambra versus Carlos V” y en él relata un delicado escenario donde se entrelazan distintas cuestiones relativas a la intervención en lugares históricos. En el tercer paisaje “Paisaje con Ruinas” tras describir las hermosas ruinas físicas del pasado concluye con una reflexión: “Hay ruinas y ruinas… Pero quizá no sean estas las verdaderas ruinas de nuestro tiempo. Qué clase de ruina producirá nuestra modesta arquitectura del siglo XX?. Nuestro legado no debería leerse en clave de piedras como las de otras épocas que no disponían de otro lenguaje que el de construir para los tiempos. Sin embargo es posible que surjan otras claves, quizá aún no bien conocidas, que sean para las generaciones futuras de tan clara lectura como la de este tercer Paisaje”. Encontrar esas claves contemporáneas, es el objeto de este paseo por las obras y escritos de García de Paredes. Mirar, suprimido el tiempo, los planos, dibujos, escritos, libros y fotografías del archivo del arquitecto, ordenando y comprendiendo los motivos que propiciaron cada obra, nos lleva a pensar que la arquitectura de cada momento es sólo un desplazamiento de los anteriores. Nada ahora es completamente distinto de lo que era entonces y la arquitectura de antes puede ser interpretada, más allá de aspectos formales, por otras generaciones, desdibujándose el tiempo donde pretendemos ordenarla. Este legado de claves conceptuales nos es útil ahora para conocer lo que permanece en la arquitectura pensando en cuestiones actuales a través de papeles antiguos. El legado de esa “modesta arquitectura” no se debe leer pues en clave de “piedras”, como expresaba García de Paredes. Gran parte de sus obras se construyen con materiales sencillos y la lectura de su valor no es directa. Sin embargo explican en qué momento la arquitectura pasa a ser un hecho capaz de transmitir intenciones ocultas y convertirse en una actividad social en sintonía con la realidad. Desvelar esta colección de ideas para enfocar cuestiones de arquitectura, en el convencimiento de que este ideario es tan válido hoy como entonces, nos acerca a ese utópico método de trabajo del arquitecto. En este ciclo abierto se han seleccionado determinadas obras que permiten plantear mejor las cuestiones que ilustran su razón de ser y así pues se suceden lugares y personas, números y geometrías, música, artes plásticas y arquitecturas. ABSTRACT Looking at the work of José M. García de Paredes as a set of ideas that outline a way of imagining and producing architecture, explains a vision that has persisted in time. Employing the word “explain” in the same sense as Stravinsky in his Poetics of Music: deploying, developing and describing something, discovering and clarifying its origins as a way of observing the relationships between things and the way designs originate in order to understand how they determine the architecture, once it has a life and use of its own after time has passed. This thesis is based on an analysis of the archives of José M. Garcia de Paredes, which began in 1990. After graduating from the Madrid School in 1950 —an equally complex time as today— he continued to practise architecture until 1990. He was not an architectural theorist but he had a deep understanding of theory and left essays and ideas on the way to tackle projects. Although he may not have been a radically innovative architect and his work may seem subdued, much of it embodies categorical approaches, which are deliberately overshadowed. Nevertheless, his work is sharp, consistent and is valuable for the knowledge and values it transmits. It has served its purpose, it now forms part of the places for which it was built and has become part of the lives of the people it was designed for. To a large extent, his buildings already show the patina of time. While not large in number, they bring together the ideas needed to put a project into practice and arrive at an end result in which the architecture is also a personal expression, a social activity that makes life better for people. The discourse takes a new look at the architecture of Garcia de Paredes through an analysis of all the issues involved in order to turn the resulting knowledge into a useful tool for project work. It therefore now, ideas that are old but at the same time contemporary. This vision time. The beautiful social utility of his architecture and the way he arrived at it through knowledge and intellectual economy still remain valid. The synthesis of this vision has required much time to organize the archive and also a professional architectural practice to put it into perspective. The preserved documents reveal a body of work that was designed at a time when ethics shaped the underlying scenario of the Relación de architectural debate. The architect used the material resources at his disposal in an almost craftsman-like way, in the company of a congruent group of architects. He interpreted reality in a personal way, removed from the coldness of the strict Modern Movement, striving to improve it and strip off anything that was unnecessary. His buildings responded to their context in such a way that transformed it, as if they were “magical realism”. Another line of analysis emerged from an initial analysis, with all the documents in view at the same time: not to explain his work but rather to study the design process of an architect in order to discover a method. In 1986, García de Paredes wrote “Three landscapes with architectures”, which describes three cultural landscapes in different times. After describing the beauty of the physical ruins of the past, the third landscape, “Landscape with Ruins”, concludes with this observation: “There are ruins and ruins ... But these might not be the real ruins of our time. What kind of ruin will be produced by our modest 20th century architecture? Our legacy should not be interpreted in the key of mere stones, like those of past eras which had access to no other language than construction for all times. Other keys, perhaps not yet familiar, may well emerge and be as legible for future generations as this third Landscape”. This tour of the work and writings of Garcia de Paredes is aimed at discovering these contemporary keys. The legacy of such keys can now help us to know what endures in architecture; thinking about current issues through the perspective of old papers. Having set aside the time factor, looking at the drawings, essays, books and photographs from the architect’s archives, organising and understanding the reasons that gave rise to each work, I now believe that the architecture of each moment is only previous work that has been shifted. Nothing is completely different now from what it was back then. The architecture of the past can be interpreted by other generations, looking beyond the aspects of form, blurring the time factor when we want to order it. For this purpose I have selected particular works that permit a better enunciation of the issues that illustrate their rationale, hence the succession of places and people, numbers and geometries, music, art and architectures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comúnmente la Arquitectura se manifiesta en los edificios como un hecho de la realidad que tiene siempre carácter contemporáneo y ése debe ser el valor supremo de un arte que no distingue entre antiguo y moderno, por afectar al presente y ser contemporáneo como experiencia. Los objetos se insertan irremediablemente en su medio e incluso llegan a definirlo en ocasiones: así, arquitectura y paisaje, aparecerán a veces confundidos con diferencias difíciles de determinar. El término “paisaje” es relativamente moderno y se deriva de ciertas representaciones gráficas o pictóricas producidas en Occidente en época algo posterior al Renacimiento. No obstante, el hecho de que una palabra se pueda escribir o se cite no quiere decir que la realidad a la que responde no pueda existir, pues lo escrito es solamente un medio de expresión, y es obvio que existen otros quizá más antiguos y de idéntica importancia, pues la propia escritura no es más que el reflejo de un fenómeno que ya se ha producido con anterioridad. Parece así que el testimonio de la realidad viene dado por distintos contextos en lo que suele llamarse “cultura” de modo que las culturas pueden tener aspectos de gran interés mediante diferentes sistemas de expresión variados sin que eso tenga que pasar forzosamente por el filtro de un alfabeto y una escritura. A tenor de los primeros descubrimientos, parece que la cuestión de escribir tuvo originalmente un carácter de constatación de apunte contable y tampoco se puede establecer con certeza si algunos utilizaron la escritura como el so-porte adecuado para referir mitos o historias, pues la Arqueología no ha proporcionado sino testimonios fragmentarios; de lo que si está repleta sin duda la historia es de apuntes contables. Otra cuestión que suscita dudas es la propia definición de escritura, pues parece que los más antiguos modos de expresión escrita se reducen a pictogramas que resultan aún indescifrables. Lenguas y toponimia son también herramientas muy útiles para bucear en el pasado, pero aún así persisten dudas en las escrituras que pro-vienen de las representaciones primordiales: la propia escritura en sus orígenes parece alimentarse de las propias intuiciones inmediatas de la representación, algo que evolucionaría representando esa realidad urgente e inmediata del control o el abastecimiento que luego se convertirían en los fragmentos de texto que han podido conservarse. Es notorio, sin embargo, que ese conjunto enorme de convenios gráficos estaba sujeto a la palabra y la desaparición de las culturas determinó también la desaparición consecuente de sus lenguas, y esos signos - fueran o no escritura - han pasado definitivamente a las zonas oscuras del conocimiento. Escribir supone también disponer de capacidad de abstracción gráfica que diferencie la palabra y la cosa, y es posible que la razón que llevara a ese descubrimiento fuera simplemente el de una economía de signos, pues escritura y lenguaje son limitados por definición, mientras que las cosas del mundo son innumerables: ningún idioma contiene todas las palabras para describir todo lo que puede aparecer. Aparentemente, ese el motivo por el cual existe un localismo – un término específico que refiere algo que existe en un lugar y no en otros - en lo que se refiere a dar el nombre a la cosa y también fuente de paradigma entre los pueblos que se consideran primitivos y los que se consideran civilizados. Debe tenerse en cuenta también que esa transposición se da en ambos sentidos, de modo que las culturas más aisladas también incorporan conceptos que carecen de una explicación racional consistente. Las mitologías son así eternas, pues sirven para explicar realidades que carecen de un entendimiento alcanzable y está también bastante claro que los lenguajes resultan ser un enigma, como realidad autónoma que queda en-cerrada y se explica en sí misma. Parece también que los primeros en escribir las consonantes aisladas fueron los pueblos semíticos occidentales de las orillas del Mediterráneo, pueblos que crearon un alfabeto silábico que llegó a ser utilizado incluso por los tartesios en el sur de la península ibérica como el primer alfabeto de toda Europa occidental. Resulta patente que el término “paisaje” se ha nutrido siempre de representaciones, bien escritas o artísticas, pero queda también claro que esas representaciones se suponen derivadas de la creencia en una idea de paisaje como algo que se ve representado en sí mismo, es decir, como la imagen de una realidad externa situada fuera del individuo. Eso es un hecho trascendente, pues el paisaje requiere lejanía de la cosa, de modo que el actor – aún sabiéndose inserto en su paisaje – es incapaz de percibirlo desde dentro. En el paisaje ocurre igual que en un teatro o en una representación: los actores son conscientes de su papel y su posible cometido, pero no son los que realmente pueden disfrutar de la eficacia o de la propia presencia de la obra, pues forman parte de ella. La idea de paisaje proviene de una lectura externa a la de los propios protagonistas del drama, de modo que si quieren ser un crítico del paisaje se debe abandonar la representación para mirar el espectáculo desde una distancia adecuada, al fin y a cabo externa. De ese modo, aparece la primera constatación del hecho del paisaje como una realidad construida por objetos y personajes, pero, sobre todo, es una realidad construida por miradas. Llama también la atención otorgada en las lecturas de los especialistas hacia esa referencia externa - artística si se quiere - sobre el término “paisaje”, de modo que la bibliografía no especializada sobre el particular siempre acaba en tratados de pintura o poesía. Parece sin embargo que el hombre y sus paisajes son realidades indisolubles desde la propia aparición de la especie, de modo que llevar la cuestión hacia términos exclusivamente esteticistas parece una posición parcial. Hombre y medio han formado siempre una sola unidad, aunque esa unidad se haya convertido en determinados casos en sinónimo de depredación y destrozo. Sin embargo, esa destrucción crea igualmente un paisaje como desolación que es resultado del propio quehacer del hombre: elementos que también poseen un contenido sustancial de memoria en los paisajes industriales como un momento de la Historia previo a la automatización y a la globalización de la vida actuales. Quizá el concepto más interesante desde el punto de vista teórico sea precisamente el de esa cualidad del paisaje como mirada, algo externo producido por el contemplador en un momento ajeno a la pertenencia, una mirada que no es tan sólo estética sino comprensiva, gozosa, activa o analítica - pues existen tantas maneras de mirar como sujetos - sin que pueda definirse con precisión esa contemplación más que en términos que alcanzan la propia individualidad. En términos poéticos, también podría establecerse como ese conjunto de miradas individuales crean también una estructura que hace que ese paisaje se valore y se comprenda, de modo que desde ese punto de vista ese paisaje supone una creación colectiva. Con respeto o como depredador, el hombre se ha instalado en su medio, y al hacerlo, ha dejado huellas dentro del propio paisaje que hacen que tome una determinada significación. Naturalmente, existe una teoría que distingue entre “país” y “paisaje”, asumiendo para el primero la noción exclusiva de territorio en la cual el hombre no tiene papel estético alguno. He intentado muchas veces comprender esa posición, sin acabar de entender el planteamiento que la sustenta: parece que la visión de la cosa estará siempre humanizada, aún en las zonas “vírgenes” o intactas, pues la propia visión hace que el objeto se modifique en su propia unidad perceptiva, creando una curiosa indeterminación que lleva a los conocidos equívocos entre imagen real y representación. Efectivamente, la visión de la cosa requiere de una cultura y unos medios que la informan, de modo que un texto, una pintura, una descripción o una fotografía quedarán ya humanizadas por el propio hecho de ser informadas, pues ello otorga una forma a priori. De ese modo, el paisaje figura inscrito en una función que establece tanto aspectos de un paisaje posible como aspectos del paisaje descrito y solamente podrá hablarse sobre la potencialidad del estado final de ese paisaje y nada del propio paisaje en sí, mientras ese paisaje no quede humanizado por el propio observador. Esta cuestión obliga a elegir una definición de paisaje alejada de presupuestos esteticistas para acercarla a los puramente culturales, de modo que no existe otra vía para la investigación que contemplar esa realidad física en función de las coordenadas del hombre que la habita, dotada del contenido correspondiente a esa revelación. Lejos de las posiciones de la geomorfología, el término “paisaje” implicará así unas condiciones determinadas de contemplación por parte de un sujeto por el cual el espectáculo queda humanizado en dicho acto.Cabe pensar también si no es cierto que todos los paisajes requieren de esa condición humanizada, pues aunque no estén habitados están siempre ocupados por esa mirada que los habita, al igual que un escenario sin público que carece de vigencia. A partir de ahí se sitúan las coordenadas en donde este trabajo configura la presencia de la arquitectura en la definición del paisaje, una premisa que parece ya venir otorgada desde el principio, pues esa misma mirada del espectador ya está dotando de un sentido de orden y jerarquía a la contemplación, unas cualidades que están en la base de toda actividad arquitectónica, De hecho la propia definición de “monumento natural” - en si misma una contradicción – expresa ese conflicto, dotado de un fenómeno de admiración y solape entre cultura y naturaleza, como conceptos enfrentados desde su origen. La conclusión sobre el dilema propuesta en la tesis no ha sido otra que suponer que esas dos realidades que son la cultura y el paisaje se han solapado desde el principio de los tiempos del hombre formando un binomio indeslindable. Se ha dicho antes que el proceso de invasión del territorio por el hombre es significativo, y esa significación es la que origina una creación autónoma que se aísla como un concepto abstracto de los entes naturales, tomándolos como material de trabajo, y estableciendo una oposición conceptual en la realidad perforada e interpretada por el hombre que viene a oponerse a lo que supone la caja cerrada e ignota del enigma del mundo. La cuestión de la significación del hombre sobre el territorio se subsume en la creación de unos productos que permanecen y que son testimonio de la propia cultura, de forma que la cantidad de rastro que el hombre deja sobre el territorio contribuye en mayor medida a la cualificación del paisaje como concepto. Eso lleva a establecer que cualquier paisaje - por el mero hecho de serlo y ser definido así – es ya cultural, puesto que está configurado por los productos de la cultura. Las palabras que puedan quedar encerradas en las piedras de los monumentos o de las ciudades son las de los hombres que trabajaron allí, y también las de los que las habitaron: más aún, el propio sentido del paisaje y su conservación vienen determinados por la presencia del hombre como único interprete de conceptos como ecología o conservación, algo que se pone de manifiesto también en la espantosa devastación que producen los fenómenos propios de la naturaleza. La historia natural, al igual que la vida, están conformadas por éxito y devastación, sin que uno y otra tengan especial preferencia, pues la preferencia se alimenta de otra clase de conceptos. La cuestión de atribuir valores morales al mundo natural es algo muy antiguo, y quizá sea la fuente o el manantial de las primeras religiones, una cuestión que se une a la indefectible noción de mortalidad que define la existencia del hombre frente a la inmanencia de la naturaleza. Esa propia naturaleza está dotada intuitivamente de un carácter “inocente” suponiendo que la inocencia es lo opuesto a la sabiduría. La cuestión es bien otra, ya que la naturaleza no posee ni siquiera algo que pueda definirse como “carácter”, en el sentido personal del término. La cuestión no cae, evidentemente, del lado de las definiciones o de las cualidades, sino del propio análisis de la realidad que el hombre va construyendo, destruyendo, embelleciendo o perjudicando para definir el territorio que habita, interponiendo a su manera recursos, instalaciones y en definitiva todos los testimonios posibles como principal manifestación de su esencia. Entre los artefactos que el hombre produce, uno de los más persistentes y más conspicuamente descritos es el de la arquitectura - entendida aquí en un sentido amplio - es decir, como el conjunto de modificaciones del espacio y del territorio. El espacio se puede modificar de muchos modos, pero en cualquiera de los casos constituye una de las huellas más características que el hombre establece como manifestación física de su propio ser discursivo. También la arquitectura ha demostrado ser una de los fenómenos más persistentes, incluso más que la propia lengua que la origina en su discurso primero antes que pueda ac-cederse a una idea sobre la conformación del material. Es paradigmático que el episodio descrito sobre la Torre de Babel en la Biblia la cuestión de la ambición de los hombres frente a Dios, representada precisamente en una arquitectura, se asimile a la discusión sobre el lenguaje primordial. La cuestión no es baladí, pues el fenómeno de la creación es algo que se concede exclusivamente a los dioses, que por esa razón habitan los territorios a los que los hombres no pueden llegar; territorios de albergue en los que las mitologías sitúan a dioses y demonios, con amplios espacios intermedios donde situar a las divinidades menores, héroes o seres híbridos en los que la coyunda de los dioses con los humanos produce sujetos que alivian el sentido de la mortalidad. El comentario del Génesis también concede un valor a la técnica, al mito de Prometeo y al fuego como creador de excelencia. Frente al progreso prometeico, se postula el valor divino, y la única forma posible de paliar ese progreso es la confusión del lenguaje, pues eso será lo que produzca la dispersión y la falta de acuerdo. La cuestión también puede explicar esa afición tan común por lo canónico en arquitectura que se mantiene a lo largo de grandes períodos, al igual que una gran máquina de inercia. Parece que los conceptos primordiales de la arquitectura basados en elementos simples como el hito, el dintel, lo recto y lo curvo, la rampa o la escalera, y el uso distinto o cualificado que se otorga a la piedra, el ladrillo, la madera o el metal como componentes primordiales del material arquitectónico se haya mantenido a lo largo de muchos milenios sin apenas cambios, al igual que ocurre con las costumbres alimenticias que siguen una progresión ascendente a través de lo crudo, lo asado y lo cocido, hasta obtener distintos grados de refina-miento, pero que siempre se sustentan en la sensación primigenia. El descubrimiento de la arquitectura proviene de un cierto manejo de las dimensiones, y consiguientemente de la geometría. Pero la geometría es cosa abstracta al igual que el lenguaje, de modo que para poder realizar arquitectura se hace necesaria esa capacidad de abstracción primera que luego permite la realización de un dispositivo. La realidad y su número exhiben un divorcio, al igual que las cosas y sus nombres exhiben el suyo, y el análisis numérico es solamente una forma de ver la realidad, una forma rigurosa y exacta – aunque parcial - que solamente representa el modelo ideal al cual la realidad se aproxima en mayor o menor medida: esa aproximación matemática hace que el universo pueda condensarse parcialmente en números, al igual que la realidad puede condensarse en nombres, pero ni el nombre ni el número reflejarán el mundo en toda su complejidad. El número es quizá solamente un medio de describir las cosas, como lo serían las formas puras que responden a una configuración matemática que pueda producirse en teoría en cualquier parte del Universo. Sin embargo, para el ejercicio de la arquitectura es preciso acudir a esa simplificación que exige la visión abstracta del plano como una sección cierta realidad como un corte abstracto del elemento considerado. Con su traza o sin ella, con la propia expresión matemática que lo describa o sin precisarla, esa intuición del plano como elemento generador del espacio es anterior a aquella expresión, al igual que el habla fue anterior a la escritura, pues solamente se produjo a través de ella y como refuerzo y sustituto de la memoria. Existen así abstracciones de la memoria que aparecen derivadas de los signos de la naturaleza aparecidos solamente de forma eventual y fragmentaría: así ocurre con la línea, el cuadrado y el círculo, formas iniciales y abstractas sonsacadas en cierta medida de la observación que dan origen a los primeros signos de la arquitectura primordial, de modo que cuadrados y círculos, elevados a prismas y superficies esféricas o esferoides aparecen en tumbas y edificios elementales de los primeros tiempos mediante una geometría primordial que se superpone al paisaje en el que se inserta. Es cierto también que esas formas se encuentran ya aproximadas en objetos que se encuentran en el medio físico, líneas en extremidades, ramas y miembros; ángulos rectos en algunos cristales que se observan mediante corte o formas circulares en astros y cráteres, pero esa realidad solamente presenta su forma aproximada y no su abstracción pura, de igual modo que el jeroglífico propondrá al ave rapaz para representar la idea de vigilancia y la buena vista, o incluso que la imagen del propio ojo sustituya la idea del Dios que todo lo ve en las culturas anti-guas. La elección fue resuelta, después de muchos intentos y aproximaciones, con la adopción del ángulo recto como un artificio fácil para el replanteo a través del triángulo sagrado 3:4:5 que ya se utilizó para construir las pirámides de Egipto, y que dio origen también a la mayor parte del urbanismo antiguo, coexistiendo con la forma circular primordial en el tipo denominado “tholo”. Aquella trama cuadrangular era uno de los patrones de relleno del espacio más comunes y compactos, y esa fue probablemente la razón por la que en tiempos muy posteriores fuera adoptada como una forma eficaz permanente de organización frente al desorden topológico que procura el conjunto de asociación de plantas circulares. Otra cuestión paradigmática es que esos conceptos primordiales e ignotos - que convergen en el mismo origen de las civilizaciones - se conviertan luego en algo canónico, a través del uso. El canon en sí mismo es algo ideal, como una norma aplicable a objetos de una realidad que ha sido creada solamente como indicio del ca-non, algo abstracto que tiene proporciones estrictas que son siempre las mismas y no obedece a criterios racionales: será absurdo sin embargo buscar el canon griego entre los templos de época como algunos lo hicieron, pues los edificios solamente se aproximan a los ejemplos canónicos y por esa razón se habla del “dórico del Partenón” que es diferente del de Egina o del de Paestum, siendo todos ellos evidentemente dóricos. Sin embargo, esa idea resulta útil al tratadista, al teórico de la arquitectura y al historiador, aun-que solamente refleje una vaga idea de lo que sucede más allá del tratado. Otra cuestión es la sutileza de los ejemplos de arquitectura, y del mismo modo que los cuerpos de los seres vivos jamás son simétricos, aunque respondan a un diseño simétrico general derivado de las condiciones de la división celular, los edificios supuestamente canónicos en los que los especialistas se inspiraron para definir los órdenes clásicos no disponen de esa simetría modular exacta, sino que adaptan un modelo general al lugar siempre cambiante del emplazamiento, es decir, se adaptan con habilidad a la vez que configuran el paisaje en el que se insertan. La luz de los distintos intercolumnios del Partenón es ligeramente distinta, aunque guarde un evidente sentido de simetría axial, de manera que aquellos “órdenes” que formaron la Teoría de la Arquitectura no son más que una bella interpretación sectorial de la arquitectura antigua elaborada por los tratadistas del Renacimiento y, posteriormente, por los neoclásicos. Parece, sin embargo, que ese ansia por el canon como claridad de lenguaje es algo consustancial al desarrollo de la arquitectura, una lingua franca que tiende a evitar la dispersión producida entre los mortales por los dioses antiguos, de modo que si no era posible llegar al cielo de los dioses se procuró que el lenguaje de la Tierra fuera al menos inteligible para poder entenderse entre los hombres. Parece que la estructura del poder siempre requirió de un determinado nivel de organización, y también que las instrucciones se entendieran con claridad: parece que en nuestros tiempos esos antiguos cánones se han sustituido por la obediencia a normas abstractas, dictadas por instituciones también algo abstractas y que tienen nombres divertidos compuestos por siglas, aunque no se conozca bien su virtud. El canon actual está constituido por “normas” que dejan tranquilos a algunos, aunque parece quizá que todo ese entramado formal que sirve como anestesia para el cuerpo social procura también la destrucción de los bosques en formas de montañas ingentes de papel burocrático. Durante muchos siglos las normas fueron otras, en la forma de un canon del cual nadie podía escapar: aún así, mediante la utilización de cánones o sin ellos, la arquitectura prosperó en la civilización desde los primeros refugios cavernarios o los abrigos primigenios y de ese modo fue configurando la realidad, es decir, el paisaje. Como antes se dijo, ese es un viaje de ida y vuelta en el cual ambos se confundían y subsumían: el manejo de las formas y lenguajes de la arquitectura posibilitaría con el tiempo la distinción entre el campo en donde reina el caos y la ciudad, en donde reina teóricamente el orden, creando un divorcio que duraría milenios y que aún persiste. Esa oposición generaría también una forma de paisaje y una serie de usos simbólicos y sagrados de los elementos de la arquitectura - como son puertas y murallas - que se han mantenido conceptualmente aunque hoy las ciudades ya no posean murallas físicas, ni puertas que se cierran con la llegada de la noche. En ese sentido, la arquitectura ha podido definir el paisaje, entendiendo la arquitectura no solamente como los edificios en sí, sino como el hecho de la manifestación del hombre sobre el territorio, de modo que no podrá hablarse de paisaje sin su arquitectura, del mismo modo que no puede hablarse de paisaje sin hombres. Por esta razón, la Tesis habla sobre Arquitectura y Paisaje, pero más particularmente sobre el hecho de la arquitectura en la definición del paisaje, es decir, de como los hechos arquitectónicos van a determinar o no la cualidad y la calificación de un paisaje. Deberá partirse en primer lugar de una definición de lo que se entiende y se ha entendido comúnmente por paisaje: igualmente, y habida cuenta del contexto en el que sitúa el propio trabajo de tesis, la cuestión solamente se circunscribirá a lo que se entiende como cultura occidental, pues el desarrollo de la civilización presenta siempre un color local que hace que el análisis de un fenómeno de esta envergadura tenga distintas connotaciones en las distintas áreas de civilización. De igual modo, y habida cuenta también que el paisaje se construye a través de todas las manifestaciones culturales, se hará a veces necesario indagar en otras disciplinas no arquitectónicas para comprender el alcance de algunos casos en los cuales los restos arquitectónicos han desaparecido, o en los que subsisten escasas trazas. Una definición tan amplia de la Arquitectura llevaría a escribir un relato sobre toda la cultura occidental y por ese motivo solamente se han esbozado ideas sobre la aparición de esos signos sobre el paisaje basados en elementos antiguos y primigenios que se repiten con insistencia y van dando lugar al variado repertorio de la arquitectura occidental cómo conformación de ideas sobre el me-dio y sobre el mundo que se percibe y se habita. ABSTRACT About Architecture in defining Landscape. Abstract Architecture is commonly manifested in buildings as a fact of reality that has always a contemporary character and that should be the highest value of an art that does not distinguish between ancient and modern, to affect the present and be contemporary as experience. Objects are inserted irremediably in their midst and even sometimes come to define it: thus, architecture and landscape, appear sometimes confused with differences difficult to determine. However, the term "landscape" is relatively modern and is derived from certain graphical or pictorial representations produced in the West in some subsequent period to the Renaissance. The fact that a word can be written or quoting does not mean that the reality that can not be answered, because the writing is only a mean of expression, and it is obvious that there are other and perhaps older equally important, because the writing itself is nothing more than the reflection of a phenomenon that has occurred before. It thus appears that the testimony of reality is given by different contexts in what is called "culture", so that cultures can have aspects of great interest by many different expression systems without this necessarily have to pass through the filter of alphabet and writing. Under the initial findings, it appears that the question of writing originally had a character and finding accounting entries, and it can not be established with certainty whether some used writing as the support appropriate to refer myths or stories, because archaeology has provided only fragmentary evidence. Another issue that raises questions is what can properly be defined as writing, it seems that the oldest modes are reduced to writing pictograms are still indecipherable. Languages and place names are also very useful tools for diving in the past, but still questions remain in the scriptures that come from the primordial representations: either it is very well defined what the own writing in its origins: the beginnings seem to feed on immediate intuitions of representation, which would evolve representing reality that urgent and immediate control or supply which is then inherited into fragments. It is noteworthy, however, that this huge set of graphics agreements was subject to the word and the disappearance of cultures determined also the consequent disappearance of their languages, and those signs - whether or not they write - have passed definitively to dark areas of knowledge. Writings supposed also the capacity of abstraction graph differentiates the word and the thing, and it is possible that the reason to carry this discovery was simply that of an economy of signs, for writing and language are limited by definition, while the things of the world are innumerable: no language contains all words to describe all that may appear. Apparently, that's why there is a localism - a specific term that refers to something that exists in one place and not in others - in regards to name the thing and also the source of paradigm among peoples are considered primitive and civilized. It should be noted also that transposition occurs in both directions, so that the most isolated cultures also incorporate concepts that lack a consistent rational explanation. Mythologies are eternal and therefore serve to explain realities that lack an understanding achievable and also pretty clear that languages happen to be an enigma, as an autonomous reality that is enclosed and explains itself. It also seems that the first to write consonants were isolated western Semitic peoples from the shores of the Mediterranean, peoples who created a syllabic alphabet came to be used even by tartesios in southern Iberia as the first alphabet in Western Europe. It is clear that the term "landscape" has always nurtured representations, either written or artis-tic, but it is also clear that these representations are assumed arising from belief in an idea of landscape as something that is represented in itself, as the image of a reality external located outside the individual. That is an important fact because the landscape requires remoteness of the thing, so that the actor - even knowing insert in landscape - is unable to perceive from within. The landscape is just as in a theatre or a performance: the actors are aware of their role and their possible role, but they are not the ones who can really enjoy the efficiency or the presence of the work itself, as part of it. The idea comes from an external landscape reading the principles of players in the drama, so if you want to be a critic of the landscape should leave the actual representation to watch the spectacle from a safe distance, finally external. Thus, the first finding of fact of the landscape appears as a reality constructed by objects and characters, but above all, a reality constructed by looks. Also noteworthy given the readings of specialists to the external reference - art if it could be - on the term "landscape", so no specialized literature on the subject always ends in treatises on painting or poetry. It seems however that the man and his landscapes are inseparable realities from the very onset of the species, so bring the issue into terms exclusively aesthetics seems a partial position. Man and environment have always been a single unit, but that unit has become synonymous with certain cases predation and destruction. Nevertheless, this destruction also creates a landscape as desolation that results from proper task of man elements that also have substantial contents of memory in industrial landscapes as a time of pre-automation history and globalization of current life. Perhaps the most interesting from a theoretical point of view is precisely that quality of landscape as something external produced by the viewer in a strange time of membership, a look that is not only aesthetic but sympathetic, joyful, active concept or analytical - because there are so many ways to look as subjects - it may not be precisely defined that contemplation rather than in terms that reach one's individuality. In poetic terms, it could also be set as the set of individual gazes also create a structure that makes this landscape is valued and understood, so from that point of view that landscape is a collective creation. With respect or as a predator, man has settled in his environment and in doing so has left traces in the landscape itself that make take a certain significance. Naturally, there is a theory that distinguishes what is "home" and what is "nature" providing for the first notion of the exclusive territory in which man has no aesthetic role. I tried many times to understand this position, without understanding the approach that supports: it seems that the vision of the thing is always humane, even in the "virgin" or untouched areas, as the vision itself makes the object modified in its own perceptual unit, creating a curious indeterminacy leading to the known misunderstandings between real image and representation. Indeed, the vision of the thing requires a culture and means that the report, so that a text, a picture, a description or photograph will be humanized by the very fact of being informed, as this provides a way a priori. Thus, the landscape provides a function that sets both aspects of a potential landscape as described aspects of the landscape and can only talk about the potential of the final state of the landscape, while the landscape remains humanized by the observer himself. This question forces to choose a definition of remote landscape budgets purely cultural, so there is another way for research to contemplate that physical reality in terms of the coordinates of the man who inhabits gifted content corresponding to that revelation. Far from the positions of the geomorphology, the term "landscape" and involve a certain condition by contemplation of a subject for which the show is humanized in the act. It should also consider, in the light of the above, if it is not true that all landscapes require that humanized condition, because although they are not inhabited they are always occupied by the look that dwells, like a stage without audience produces no consistent effect. From there the coordinates where this work sets the presence of architecture in defining landscape, a premise which seems to come from the beginning given lie, because that same look is already giving the viewer a sense of order and hierarchy to contemplation, qualities that are at the basis of all architectural activity, in fact the very definition of "natural monument" - in itself a contradiction - expresses this conflict, which has a phenomenon of admiration and overlap between culture and nature as concepts faced since its inception. The conclusion on the dilemma proposed in the thesis has not been another to assume that these two realities are the culture and landscape have overlapped since the beginning of man time forming a pair. It has been said before that the process of invasion of the territory by man is significant, and that meaning is the originating autonomous creation that is isolated as an abstract concept of nature, taking them as working material, and establishing a conceptual opposition in reality and punched by the man who comes to oppose representing the closed and unknown to the enigma of the world interpreted. The question of the significance of the man on the land is subsumed in the creation of products that remain and are testimony of their own culture, so that the trace amount that the man leaves the territory contributes most to the qualification landscape as a concept. That brought into any landscape - by the mere fact of being and being well defined - is already cultural, as it is configured by culture products. The words that can be locked in the stones of the monuments or cities are those of the men who worked there, and also of those who inhabited: even more, the sense of the landscape itself and its conservation are determined by the presence of man as the sole interpreter of concepts such as ecology or conservation, something which becomes manifest also in the awful devastation that produce the phenomena of nature. The natural history, like life, are shaped by success and devastation without special preference, the preference is used for feeding on other kinds of concepts. The question of moral values attributed to the natural world is very ancient, and may be the source or the source of the first religions, an issue that joins the unfailing notion of mortality that defines the existence of man against immanence of nature. That nature is endowed intuitively an "innocent" character assuming that innocence is the opposite of wisdom. The other issue is well, since nature does not even have what is defined as "character" because that is something that serves to qualify beings, but not objects. The question does not fall clearly on the side of the definitions or qualities, but from the analysis of the reality that man is building, destroying or damaging to define the territory, interposing his way resources facilities and possible witness as the main manifestation of its essence. Among the artifacts that man produces one of the most persistent and most conspicuously disclosed is architecture as a way of modification of space and territory. The space can be modified in many ways, but in either case is one of the most characteristic traces that man establishes as a physical manifestation of his own discourse being. Architecture has also proven to be one of the most persistent phenomena, even more than their own language that originates in his speech first. The paradigm wrote in the episode described on the Tower of Babel in the Bible shows the question of ambition of men before God - represented precisely in architecture - is assimilated to the discussion about the primary language. The issue is not trivial, since the phenomenon of creation is something that is granted exclusively to the gods, for that reason inhabit the territories to which men can not reach; territories where the hostel located mythologies gods and demons, with large gaps where to place the minor deities, heroes or hybrid beings where the yoke of the gods with human subjects produces relieving sense of mortality. The commentary on Genesis also gives a value to the art, the myth of Prometheus and fire as creator of excellence. In front of promethean progress, divine value is postulated, and the only possible way to alleviate this progress is the confusion of language, because that is what will produce the dispersion and lack of agreement. The issue may also explain such a common passion for the canonical architecture maintained throughout long periods, like a great machine inertia. It seems that the main concepts of architecture based on simple elements like milestone, lintels, straight and curved stairs or ramps, or other qualified and used are granted to the stone, brick, wood or metal as the primary components of the architectural material maintained throughout many millennia are almost unchanged, as is the case with the eating habits that follow a progression through the raw, the cooked and roasted or fried until obtain different degrees of refinement, but always are based on the primal feeling. The discovery of the architecture comes from a management dimensions, and consequently the geometry. But the geometry is abstract thing like the language so that to make architecture that first absorption capacity which then allows the realization of a device is necessary. Reality and its number exhibit a divorce, like things and their names displayed his; numerical analysis is just one way of seeing reality, rigorous and accurate - though partial - only represents the ideal model to which reality is coming to a greater or lesser extent: the mathematical approach makes the universe can condense on numbers, like reality may condense on names, but neither the name nor the number will reflect in all its complexity. The number is only a means of describing things, such as the pure forms that match setup a mathematical theory that occurs anywhere in the universe. However, for the practice of architecture is necessary to go to the simplification that requires abstract view of a section plane of reality, as an abstract element considered cutting. With its trace or not, with the mathematical expression that describes what or without clarify, this intuition of the plane as a generator of space predates his own expression, like speech preceded the writing, which only occurred through it and as reinforcement and replacement of memory. There are abstractions of memory displayed on the signs of nature only on casual and fragmentary, such as line, square and circle: those initials and abstract forms located in abstraction give rise to the first signs of primordial architecture, so that squares and circles, lifting two prisms and spheroids or spherical surfaces appear in tombs and elementary buildings the first few times, and that primordial geometry overlaps the landscape in which it is inserted. It is also true that these forms are approximate objects found in the physical environment, limb lines, branches and limbs; straight in some crystals angles observed by cutting or circular in stars and craters forms, but only the approximate shape and not its abstraction, just as the hieroglyphic of a falcon to represent the idea of surveillance presents the good view, or even the image of the eye itself replace the idea of the all-seeing God. The election was resolved, after many attempts and approaches, with the adoption of the right angle as an easy trick for stake through the sacred triangle 3:4:5 already used to build the pyramids of Egypt, and also gave rise to most of the old urbanism tend coexist with the primary circular form type called "Tholo". That frame homer was one of the fill patterns of common and compact space, and that was probably the reason why in much later times was adopted as a permanent effective form of organization against the topological disorder that seeks the set of association circular plants. Another issue is that these paradigmatic and unknown primary concepts - that converge at the origin of civilizations - then become something canon, through use. The canon itself is something ideal, as a rule for objects of a reality that has been created only as an indication of the ca-non, something abstract that has strict proportions are always the same and not due to rational criteria: be absurd however seek the Greek canon among the temples of time as some did, because the buildings only approximate the canonical examples and for that reason we speak of "doric from Parthenon" which is different from Aegina or Paestum, being all clearly doric. However, this idea is useful to scholar, the architectural theorist and historian, although it reflects only a vague idea of what happens beyond the book. Another issue is the subtlety of the examples of architecture, just as the bodies of living beings are never symmetrical, even if they involve a general symmetrical design derived from the conditions of cell division, the supposedly canonical buildings where specialists were inspired to define the classical orders do not have that exact modular symmetry, but a general model adapted to the ever changing location of the site shaping the landscape in which they are inserted. The light of the various bays of the Parthenon is slightly different, but keep a clear sense of axial symmetry, so that those "orders" that formed the theory of architecture are just a beautiful sectoral interpretation of ancient architecture developed by writers of the Renaissance and later by neoclassical. It seems, however, that craving for clarity of language canon as is inherent to the development of architecture, a lingua franca that tends to avoid scattering among mortals by the ancient gods, so if it was not possible the heaven of the gods sought the language of the Earth was at least intelligible to be understood. Power structure has always required a certain level of organization, and the instructions are clearly understood: it seems that in our times these ancient canons were replaced by obedience to abstract rules, issued by institutions also somewhat abstract and have funny names made up acronym, although not well known virtue. The current canon consists of "rules" that leave some quiet, although it seems that maybe all that interweaves-do formally serving as anaesthesia for the social body also seeks the destruction of forests in forms of huge mountains of bureaucratic paper. For many centuries were other rules, in the form of a canon which no one could escape: still using royalties or without them, civilization flourished in architecture from the earliest cave shelters or shelters and the primordial reality was setting mode in landscape. As noted above, this is a return trip in which both confused and subsumed: the management of forms and languages of architecture over time would allow the distinction between the field where chaos reigns and city, where order reigns theoretically creating a divorce that lasted millennia and still persists. This opposition also generate a form of landscape and a series of symbolic and sacred uses of architectural elements - such as doors and walls - which have remained conceptually although today the cities no longer having physical walls or doors close during the night. In this sense, the architecture could define the landscape, architecture is not only understood as the buildings themselves, but the fact of the manifestation of the man on the premises, so you can not speak without his landscape architecture, the same so we can not speak of landscape without men. For this reason, the thesis discusses architecture and landscape, but more particularly to the fact of architecture in defining landscape, as the facts of architectural or not will determine the quality and qualification of a landscape. One should begin first a definition of what is understood and has been commonly understood by landscape: equally, and given the context in which it places the own thesis work, the issue only be limited to what is understood as western culture, for the development of civilization always has a local colour that makes the analysis of a phenomenon of this magnitude have different connotations in different areas of civilization. Similarly, and given also that the landscape is constructed through all cultural manifestations, will sometimes necessary to investigate other non-architectural disciplines to understand the scope of some cases in which the architectural remains have disappeared, or the remaining few traces. Such a broad definition of architecture take to write a story about all of Western culture and for this reason only been sketched ideas about the appearance of these signs on the landscape based on ancient and primitive elements are repeated insistently and leading the varied repertoire of Western architecture shaping ideas about how the media and the world is perceived and inhabited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El campo de estudio relacionado con los laboratorios remotos en el ámbito educativo de las ciencias y la ingeniería está sufriendo una notable expansión ante la necesidad de adaptar los procesos de aprendizaje en dichas áreas a las características y posibilidades de la formación online. Muchos de los recursos educativos basados en esta tecnología, existentes en la actualidad, presentan ciertas limitaciones que impiden alcanzar las competencias que se deben adquirir en los laboratorios de ingeniería. Estas limitaciones están relacionadas con diferentes aspectos de carácter técnico y formativo. A nivel técnico las limitaciones principales se centran en el grado de versatilidad que son capaces de proporcionar comparado con el que se dispone en un laboratorio tradicional y en el modo de interacción del usuario, que provoca que el estudiante no distinga claramente si está realizando acciones sobre sistemas reales o simulaciones. A nivel formativo las limitaciones detectadas son relevantes para poder alcanzar un aprendizaje significativo. En concreto están relacionadas principalmente con un escaso sentimiento de inmersión, una reducida sensación de realismo respecto a las operaciones que se realizan o la limitada posibilidad de realizar actividades de forma colaborativa. La aparición de nuevas tecnologías basadas en entornos inmersivos, unida a los avances producidos relacionados con el aumento de la capacidad gráfica de los ordenadores y del ancho de banda de acceso a Internet, han hecho factible que las limitaciones comentadas anteriormente puedan ser superadas gracias al desarrollo de nuevos recursos de aprendizaje surgidos de la fusión de laboratorios remotos y mundos virtuales 3D. Esta tesis doctoral aborda un trabajo de investigación centrado en proponer un modelo de plataformas experimentales, basado en la fusión de las dos tecnologías mencionadas, que permita generar recursos educativos online que faciliten la adquisición de competencias prácticas similares a las que se consiguen en un laboratorio tradicional vinculado a la enseñanza de la electrónica. El campo de aplicación en el que se ha focalizado el trabajo realizado se ha centrado en el área de la electrónica aunque los resultados de la investigación realizada se podrían adaptar fácilmente a otras disciplinas de la ingeniería. Fruto del trabajo realizado en esta tesis es el desarrollo de la plataforma eLab3D, basada en el modelo de plataformas experimentales propuesto, y la realización de dos estudios empíricos llevados a cabo con estudiantes de grado en ingeniería, muy demandados por la comunidad investigadora. Por un lado, la plataforma eLab3D, que permite llevar a cabo de forma remota actividades prácticas relacionadas con el diseño, montaje y prueba de circuitos electrónicos analógicos, aporta como novedad un dispositivo hardware basado en un sistema de conmutación distribuido. Dicho sistema proporciona un nivel de versatilidad muy elevado, a nivel de configuración de circuitos y selección de puntos de medida, que hace posible la realización de acciones similares a las que se llevan a cabo en los laboratorios presenciales. Por otra parte, los estudios empíricos realizados, que comparaban la eficacia educativa de una metodología de aprendizaje online, basada en el uso de la plataforma eLab3D, con la conseguida siguiendo una metodología clásica en los laboratorios tradicionales, mostraron que no se detectaron diferencias significativas en el grado de adquisición de los resultados de aprendizaje entre los estudiantes que utilizaron la plataforma eLab3D y los que asistieron a los laboratorios presenciales. Por último, hay que destacar dos aspectos relevantes relacionados directamente con esta tesis. En primer lugar, los resultados obtenidos en las experiencias educativas llevadas a cabo junto a valoraciones obtenidas por el profesorado que ha colaborado en las mismas han sido decisivos para que la plataforma eLab3D se haya integrado como recurso complementario de aprendizaje en titulaciones de grado de ingeniería de la Universidad Politécnica de Madrid. En segundo lugar, el modelo de plataformas experimentales que se ha propuesto en esta tesis, analizado por investigadores vinculados a proyectos en el ámbito de la fusión nuclear, ha sido tomado como referencia para generar nuevas herramientas de formación en dicho campo. ABSTRACT The field of study of remote laboratories in sciences and engineering educational disciplines is undergoing a remarkable expansion given the need to adapt the learning processes in the aforementioned areas to the characteristics and possibilities of online education. Several of the current educational resources based on this technology have certain limitations that prevent from reaching the required competencies in engineering laboratories. These limitations are related to different aspects of technical and educational nature. At the technical level, they are centered on the degree of versatility they are able to provide compared to a traditional laboratory and in the way the user interacts with them, which causes the student to not clearly distinguish if actions are being performed over real systems or over simulations. At the educational level, the detected limitations are relevant in order to reach a meaningful learning. In particular, they are mainly related to a scarce immersion feeling, a reduced realism sense regarding the operations performed or the limited possibility to carry out activities in a collaborative way. The appearance of new technologies based on immersive environments, together with the advances in graphical computer capabilities and Internet bandwidth access, have made the previous limitations feasible to be overcome thanks to the development of new learning resources that arise from merging remote laboratories and 3D virtual worlds. This PhD thesis tackles a research work focused on the proposal of an experimental platform model, based on the fusion of both mentioned technologies, which allows for generating online educational resources that facilitate the acquisition of practical competencies similar to those obtained in a traditional electronics laboratory. The application field, in which this work is focused, is electronics, although the research results could be easily adapted to other engineering disciplines. A result of this work is the development of eLab3D platform, based on the experimental platform model proposed, and the realization of two empirical studies with undergraduate students, highly demanded by research community. On one side, eLab3D platform, which allows to accomplish remote practical activities related to the design, assembling and test of analog electronic circuits, provides, as an original contribution, a hardware device based on a distributed switching system. This system offers a high level of versatility, both at the circuit configuration level and at the selection of measurement points, which allows for doing similar actions to those conducted in hands-on laboratories. On the other side, the empirical studies carried out, which compare the educational efficiency of an online learning methodology based on the use of eLab3D platform with that obtained following a classical methodology in traditional laboratories, shows that no significant differences in the acquired degree of learning outcomes among the students that used eLab3D platform and those that attended hands-on laboratories were detected. Finally, it is important to highlight two relevant aspects directly related with this thesis work. First of all, the results obtained in the educational experiences conducted, along with the assessment from the faculty that has collaborated in them, have been decisive to integrate eLab3D platform as a supplementary learning resource in engineering degrees at Universidad Politecnica de Madrid. Secondly, the experimental platform model originally proposed in this thesis, which has been analysed by nuclear fusion researchers, has been taken as a reference to generate new educational tools in that field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La búsqueda de nuevas formas de modernidad se convirtió en la cuestión principal de la obras desarrolladas por Leslie Martin, Colin St. John Wilson y James Stirling entre los años 1955 y 1970. Enmarcadas dentro de la sensibilidad surgida en la posguerra británica, su profundo sentido crítico supone una renovada interpretación de alguno fundamentos del Movimiento Moderno así como la reflexión sobre la modificación y el uso de formas que tienen sus raíces en la tradición cultural. Esta investigación se estructura en cuatro temas ampliamente debatidos y que han articulado parte de la revisión moderna a lo largo de la segunda mitad del siglo XX: » la abstracción y el realismo » la revisión de la idea funcionalista » la reconsideración de los arquetipos formales » la relación entre forma y contexto urbano se muestran como base crítica para las obras seleccionadas. La tendencia hacia el realismo surgió como respuesta a la voluntad de universalidad (y objetividad) que representó el lenguaje abstracto, del mismo modo que la revisión de la idea funcionalista pretendió superar la consideración de la obra arquitectónica como producto racional de su función y tecnología. La reconsideración de los arquetipos de la tradición, a su vez, muestra una preocupación por el significado de las formas culturales del pasado, una cuestión igualmente decisiva en la renovada atención a la estructura de la ciudad histórica. Estos temas evidencian un interés por ampliar la arquitectura moderna sin que el reconocimiento de las formas del pasado suponga un distanciamiento respecto al futuro. La idea de revisión, asimismo, se convierte en estrategia a la hora de encontrar nuevas respuestas. Si algunos de los principios del Movimiento Moderno surgen como reacción al clasicismo Beaux Arts que le precedió, las propuestas analizadas muestran la validez operativa de este enfoque para crear obras de una intensa modernidad. Su interés, por lo tanto, no solo radica en su consideración como objetos de estudio que amplían nuestro conocimiento de un período determinado, sino como tradición reciente que sirve de base crítica para la práctica actual. ABSTRACT The search of new forms of modernity became the main theme of the works developed by Leslie Martin, Colin St. John Wilson and James Stirling between 1955 and 1970. Belonging to the sensitivity emerged in postwar Britain, their deep critical sense encourages a renewed interpretation of some principles of Modern Movement and a reflection about the modification or the use of forms that are rooted in cultural tradition. This research is divided into four themes widely discussed and which has articulated part of modern review along the second half of the twentieth century: » Abstraction and realism » Review of Functionalism » The reconsideration of the formal archetypes » The relationship between form and urban context are shown as critical base for the selected works. The trend toward realism arose in response to the will of universality (and objectivity) that represented the abstract language, just as the review of Functionalism aimed to overcome the consideration of architecture's work as rational product of its function and technology. The reconsideration of traditional archetypes, in turn, shows a concern for the meaning of the cultural forms, a matter equally decisive in the renewed attention to the structure of the historical city. These themes evidence an interest to extend modern architecture, without thereby the recognition of the past forms imply a distancing regarding the future. The idea of review also becomes strategy in finding new answers. If some principles of the Modern Movement arose in reaction to Beaux-Arts classicism which preceded it, the analyzed proposals show the operational validity of this approach to create works of a strong modernity. Their interest, therefore, lies not only in its consideration as study cases that broaden our knowledge of a certain period, but as a recent tradition which serves as a critic basis for the current practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"No son necesarios imponentes edificios para dar una buena educación a los niños, mucho menos en zonas de clima suave. En el pasado Filósofos y Santos acostumbraban a sentarse con sus discípulos a la sombra de un árbol, transmitiéndoles su sabiduría sin necesidad de edificaciones de hormigón armado. Pero eran grandes hombres y grandes espíritus que sabían aprovechar el universo entero como material didáctico junto a los simples recursos de su inteligencia y su fantasía". Esta tesis nace con la intención de profundizar en la investigación de los mecanismos arquitectónicos que hicieron posible en un determinado tipo de escuelas la relación entre arquitectura y naturaleza, ya se entienda ésta como paisaje natural o como paisaje artificial creado ex novo. Si desde los tiempos de Lao Tse no había sido superada su definición de Arquitectura: “Arquitectura no son cuatro paredes y un tejado, arquitectura es el ordenamiento de los espacios y el espíritu que se genera dentro”; en realidad dicha definición adolecía de una gran carencia, pues nada decía del “espacio que queda fuera”. Así lo puso de manifiesto D. Rafael de La Hoz Arderius en su discurso de ingreso a la Real Academia de San Fernando5. Hubo que esperar al inicio del siglo XX para que la Arquitectura occidental se centrara de lleno en desmaterializar el límite entre el espacio construido y el “sitio” en el que se inserta, convirtiendo éste en “lugar” habitado. El “dentro” y el “fuera” dejan de entenderse como dos realidades antagónicas para dejar paso a un espacio continuo articulado a través de fructíferas situaciones intermedias. Sin embargo, poco se ha estudiado sobre una tipología arquitectónica : la escuela al aire libre, que fue crucial en la génesis tanto de los espacios educativos, como en la conformación del espacio Moderno así entendido. Éste es por tanto el objeto de la presente Tesis, desde una doble vertiente: por un lado desde la investigación de la evolución de esta tipología en general, y más detenidamente de un caso concreto, el colegio de las Teresianas en Alicante de Rafael de La Hoz Arderius y Gerardo Olivares James. La evolución de la escuela al aire libre se aborda a través de una selección de casos de estudio que ilustran que la regeneración social que pretendía acometerse no podía limitarse sólo a los aspectos higiénicos que centraron su primera etapa, sino que era necesario también reforzar el espíritu comunitario del niño como futuro ciudadano. Por otro lado el Colegio de las Teresianas en Alicante (1964) de Rafael de La Hoz Arderius y Gerardo Olivares James se ha elegido como caso de estudio específico. Este proyecto, siendo uno de los más desconocidos de sus autores, supone la culminación de sus investigaciones en torno a la escuela al aire libre8. Rafael de La Hoz, en línea con los postulados humanistas del Realismo Biológico de Richard Neutra, advertía de la imposibilidad de abordar la ordenación del espacio si desconocemos el proceso perceptivo del ser humano, destinatario de la Arquitectura. Esta dificultad es aún mayor si cabe cuando el destinatario no es el ser humano adulto sino el niño, dada su distinta percepción del binomio “espacio-tiempo”. En este sentido el colegio de las Teresianas en Alicante es además un ejemplo cercano, el único de los incluidos en la presente Tesis del que verdaderamente se ha podido tener un conocimiento profundo tanto por el resultado de su análisis a partir de una investigación de carácter científico, como por la experiencia personal del mismo vivida desde niña, al ser antigua alumna del centro. Tanto en este ejemplo concreto como en el resto de casos analizados la metodología para lograr la educación integral del individuo, reproduciendo el mito de la caverna de Platón revisado a través del Emilio roussoniano, se fundamenta en el contacto directo con el exterior, promoviendo un nuevo modo de vida equilibrado y en armonía con la naturaleza, con uno mismo y con los demás. Desde un primer estadio en el que el espacio exterior sustituye literalmente al aula como lugar para la enseñanza, se evoluciona hacia una tipología más compleja en la que los mecanismos de proyecto habrán de fomentar la continuidad entre interior y exterior en los espacios de aprendizaje, así como reproducir en el interior del aula las ventajas del ambiente exterior evitando algunos de sus inconvenientes. Todo ello con diferentes matices según la edad del alumno y la climatología del lugar. A partir del análisis de los casos de estudio generales y del ejemplo concreto de las Teresianas, se pretende sintetizar cuales fueron los mecanismos de proyecto y los principales temas de reflexión que caracterizaron este tipo de escuelas. ABSTRACT "Imposing buildings are not necessary for children to receive a good education, even less in mild climate areas. In the past, Philosophers and Saints used to sit with their disciples in the shade of a tree, passing on their wisdom without the need of reinforced concrete buildings. But they were great men and great minds who could take advantage of the entire universe as a source of teaching material, together with their intelligence and fantasy." This thesis was undertaken with the purpose of carrying out an in depth analysis of the architectural strategies targeting certain types of schools which have a close relationship between architecture and nature. It is said that since the time of Lao Tzu his definition of architecture had not been surpassed: “architecture is not just four walls and a roof, architecture is the arrangement of the spaces and the spirit that is generated within”. But this definition suffered from a serious lack as the “space left outside” is not mentioned. This was exposed by Rafael de La Hoz Arderius in his speech of entry into the Royal Academy of San Fernando10. It was not until the early twentieth century that Western architecture would squarely focus on dematerializing the boundary between the built environment and the “site” in which it is inserted, turning it into an inhabited “place”. The “inside” and the “outside” are no longer understood as two op-posed realities, instead they make way for a continuous space articulated through fruitful in-between situations. However, little has been studied about an architectural typology: the open air school, which was a turning point in the genesis of both educational, as well as modern space. This is therefore the object of this thesis, having two perspectives. On the one hand the development of this type of school is broadly investigated; on the other hand a specific case is introduced: the school of the Teresian association of Alicante, by Rafael de La Hoz and Gerardo Olivares. The development of the open air school is approached through a selection of case studies. These illustrate that the expected social regeneration could not be limited exclusively by the hygienic aspects targeting its first stage, but it was also necessary to strengthen the community spirit of the child as a future citizen. As previously mentioned the Teresian school of Alicante (1964-1966), has been chosen as a specific case study. Despite being quite a bit less renowned than other projects by the same authors, it represents the culmination of their researches about the open air school. In line with the humanist postulates of Richard Neutra’s Biological Realism, Rafael de La Hoz warned about the inability to deal with the arrangement of space if we are unaware of the perceptive process of the human being, addressee of the architecture. This difficulty becomes greater when the addressee is not the adult human but the child, given his different perception of the binomial “space-time” relationship. In this respect the Teresian school of Alicante is in addition a closely related case study, being the only one of the mentioned cases in this thesis allowing to acquire a deep knowledge, both from the results of its analysis coming from a research of scientific nature, as well as the personal experience lived since I was a child, given that I am a former pupil. Both in this case study and in the other analyzed cases, the methodology implemented to achieve the integral education of the individual is based on the direct contact with the exterior, promoting a balanced and in harmony with nature new way of life, including oneself and the others. Thereby it replicates the Plato’s cavern myth and its roussonian review: Emilio. From the first stage in which the exterior literally substitutes the classroom as the educational space, it is evolved towards a more complex typology in which the project strategies have to promote the continuity between inside and outside learning spaces, as well as to reproduce inside the classroom the advantages of the exterior environment avoiding some of its disadvantages; thereto considering the differing matrixes involving the pupil age and the local climatology. From the analysis of the general case studies and the Teresian school, the main project strategies and elements characterizing the open air school have been synthesized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La historia de la arquitectura se ha medido - en parte - por la evolución de las modas, épocas y estilos de la arquitectura religiosa. En la aparición de las nuevas capillas interreligiosas universitarias de los años '50 de Norteamérica, la capilla del M.I.T., bautizada tras su inauguración como “Kresge Chapel” en honor al apellido de su benefactor, fue el máximo exponente como prototipo en esta época marcada por la aparición nuevas conciencias de posguerra. (II Guerra Mundial). La tesis centra su investigación en esta capilla, cómo nació en respuesta a la necesidad de compatibilizar la enseñanza reglada científico tecnológica con una formación religiosa y humanista, para el programa impuesto como ampliación del campus universitario del MIT en el barrio universitario de Cambridge, Boston, Massachussets, en torno a dos edificios principales a proyectar: capilla y auditorio. Desde el trabajo de investigación se aporta la información documental necesaria para saber cómo evolucionó desde sus primeros bocetos hasta su construcción. Su nacimiento como necesidad en la sociedad universitaria no fue nada espontáneo, quedando a medias entre la influencia escandinavo - alemana y la tradición americano-luterana de anteriores iglesias neoclásicas herederas del “Plan Akron”. La formación académica y profesional dirigida por su padre, Eliel Saarinen, suman junto a los viajes del arquitecto, una herencia “genética” para con este prototipo ajeno al emergente “estilo internacional” y ayudan a comprender la dimensión compleja de lo que es capaz de representar la capilla. La capilla es refugio emocional de la luz y es un punto de inflexión notable en la recuperación del tipo centrado renovado y evolucionado, que junto con el doble recurso lumínico - efectista, de la vertical para el altar y horizontal inferior, distribuido desde el perímetro ondulado en el interior, el ejemplo es muestra la promoción de una cierta sensibilidad para con las nuevas formas de la "religión" emergentes en la Norteamérica de los años 50. Desde el sincretismo como mecanismo y principal “modus operandi” proyectual, FE versus RAZÓN, aparecen como dualismo permanente en todas las fases del proyecto, desde un proceso de búsqueda de la armonía de ambos y para cada uno de ellos. Con el estudio del modelo prototípico del MIT, buscamos el "patrón" empleado por el arquitecto en su proyección de "nueva iglesia" adaptado a la diversidad cultural y religiosa y de las nuevas y diferentes sensibilidades humanistas para el proyecto. ----------------------------------------------------- SUMMARY--------------------------------------------------- The history of architecture is measured - in part - by the evolution of fashion, periods and styles of religious architecture. In the emergence of the new interfaith university chapel of the 1950s in North America, the chapel of MIT, named after its inauguration as "Kresge Chapel" in honor of its benefactor, was the best example of a prototype, in this time so marked by the emergence of new postwar consciousnesses. The thesis focuses its research on this chapel; how it came about in response to the need to reconcile formal scientific and technological education with religious and humanist training for the program imposed as an extension of the campus of MIT in the university district of Cambridge, Boston Massachusetts, around two main projected buildings : Chapel and auditorium. From research work has been obtained the documentary information necessary to know how it evolved from the first sketches to its construction. Its creation as a necessity of the university society was not at all spontaneous, being halfway between the Scandinavian influence - German and the American Lutheran tradition of neoclassical churches, the heirs to the "Akron Plan". The academic and professional training directed by his father, Eliel Saarinen, together with the travels of the architect, a "genetic" heritage with this external prototype for the emerging "international style", and help to understand the complex dimension of what the chapel is capable of representing. The chapel is an emotional refuge of light and is a remarkable turning point in the recovery of such focused renewed and evolved, along with the double lumen resource - gimmicky, vertical to the altar and lower horizontal, distributed from the undulating perimeter inside, the example is shown to promote a certain sensitivity to the new forms of "religion" but vague religious profile emerging in the America of the 50s. From the syncretism as a mechanism and main "modus operandi" of the project, FAITH versus REASON appears as permanent dualism in all phases of the project from a process of finding the harmony of both and for each of them. With the study of the prototypical model of MIT, we seek the "pattern" used by the architect in his projection of "new church" adapted to the cultural and religious diversity and new and different humanist sensitivities for the project. El desarrollo vierte la luz suficiente para entender los patrones de lo arquitectónico en la capilla, que hacen de ella, la comunión armónica y perfecta de los nombrados opuestos en el campus universitario del MIT. En el camino, además, la investigación arroja luz y orden sobre las fases del proyecto a través de la contribución, recogida, clasificación y orden de los datos, fechas y documentos gráficos, a día de hoy dispersos y confusamente publicados, debido a la no existencia de un estudio profundo y completo como el que pretende ser este trabajo, por ser una obra fundamental en la historia de la arquitectura moderna. El patrón final demostrará el artificio sincrético de cada una de las partes - cada uno en sí misma y cosidas todas - formando el "Ima Summis" de la capilla; resultado de la acción proyectual deducida de su serie genética descifrada. De esta forma, lo sincrético, aparece como el principal atributo del hecho construido, pasando de lo místico a lo científico, de lo intuitivo a lo razonado y siempre con el vehículo de su arquitectura para la interpretación de lo inefable al interior. En cuanto a la estructura de la tesis, se inicia el desarrollo a partir de una introducción en la que se declaran las intenciones y se describe el contexto de lo investigado en torno a la hipótesis principal anunciada en el subtítulo de la tesis. Frente a consideraciones previas de la capilla y de la propia investigación, se expone y explica la hipótesis principal, junto a otros objetivos secundarios. Para finalizar la introducción, se describe el método seguido como estrategia y se justifica la estructura de redacción del documento para la compresión de este trabajo hacia sus conclusiones. Es en el primer capítulo, el C1, donde se inicia el cuerpo central mediante la exposición historiográfica de la situación y contexto previo a la capilla como antecedentes. En un segundo capítulo, el C2, se aborda el estudio del desarrollo del proyecto y de la obra y construcción de la capilla, base documental necesaria. Para ello se inicia con la descripción del lugar, del encargo y del programa, para pasar a mostrar con detalle las distintas propuestas de cada una de las fases del proyecto. En definitiva, qué se proyecto, cómo evolucionó el proyecto y en qué fases transcurrió, para entre otras cuestiones, entender el cambio de estilo desde una fase influenciada por la capilla de Mies construida en el ITT de Chicago, (denominadas en este trabajo por esta influencia como modelos “miesianos”) y la fase reencuentro con el modus de hacer iniciado por su padre Eliel, a través de un modelo a medias de una herencia escandinavo - alemana y la tradición luterano - americana, (denominada en este trabajo como herencia o modelos “saariniana/os”). The development sheds enough light to understand the architectural patterns of the chapel, making it the perfect and harmonic communion named opposites on the campus of MIT. Along the way, furthermore, the research sheds light and order on the phases of the project through the contribution, collection, sorting and order of data, dates and graphic documents, today scattered and confusingly published, due to inexistence of a deep and comprehensive study like this work is meant to be, in the context of such a seminal work in the history of modern architecture. The final pattern will demonstrate the syncretic artifice of each of the parts - each in itself and all together - forming the "Ima Summis" of the chapel; the result of the project action deducted from its deciphered genetic series. Being the SYNCRETIC, the main attribute of the built matter, passing from the mystical to the scientific, from the intuitive to the reasoned and always with the vehicle of architecture as the representation of the ineffable. As for the structure of the thesis, the development starts from an introduction in which the intentions are declared and the context of that which is investigated is described, in terms of the main hypothesis announced in the subtitle of the thesis. Faced with previous considerations of the chapel and the research itself, the principal hypothesis is expressed and explained, along with other secondary objectives. To conclude the introduction, the method followed is described as a strategy and the structuring of the document is justified for the compression of this work towards its conclusions. It is in the first chapter of the thesis, the C1, where the main body of the work is initiated through the historiographical account of the situation and context prior to the chapel as antecedents. A second chapter, C2, addresses the study of the development of the project and of the work and construction of the chapel, based on the necessary documentary evidence. To this end, the analysis begins with the description of the place, the commission and the program, moving on to analyze in detail the various proposals of each phase. What is projected, how it evolved and through what phases passed the project to, among other questions, understand the change in style between the phase of influence of Mies through the projected chapel in the ITT of Chicago chapel (called in this work as "miesian" influences or models) and the reunion with the modus of making initiated by his father Eliel, through a model equally at once of Scandinavian-German heritage and of the American-Lutheran tradition, (referred to in this work as "saarinian" inheritance or models). Para el tercer capítulo, el C3, se llevan a estudio y análisis, los elementos más destacables en los que se prueban las particularidades llamadas “genéticas” en cada uno de las partes principales detectadas en la capilla. Desde ellas se rastrean las influencias - a veces sinergias - que ayudan a justificar y conformar una clasificación genética en torno a cuatro patrones principales, de los que poder discernir al final del capítulo, el “patrón matriz” de la propia capilla en base a la concurrencia de los órdenes arquitectónicos que los conforman. Una vez obtenida la información y orden necesario, se puede afrontar el punto álgido de esta tesis con el cuarto capítulo, el C4, en el que se justifica la capacidad sincrética de la capilla como respuesta a la hipótesis principal señalada en el subtítulo. Para ello se inicia el capítulo con el enfoque y contexto del término “sincretismo” y “sincrético”, aportando la justificación de sus usos para con esta investigación, antes de explicar que la capilla es sincrética por la suma de dos claves fundamentales. La clave primera, correspondiente a la capacidad interconfesional y aconfesional de la capilla, y su capacidad de trascender al interior desde ambas situaciones además de ser reconocible por el religioso y a la vez por el científico. Y la clave segunda, que corresponde a la suma de las distintas partes sincréticas, cada una en si mismas, capaz de sumar todas juntas, este edificio sincrético de los nombrados opuestos. Una vez discernido las claves de lo sincrético en la capilla y a pesar de su doble carácter SACRO Y PROFANO, una comparativa posiciona a la capilla como único entre los ejemplos interconfesionales construidos en los ´50, sin haberse repetido de igual manera y mismo resultado en el tiempo, ni en ninguna otra universidad o centro tecnológico. Así la exposición de este trabajo finaliza con el último capítulo, el C5, en el que desde esa comparativa, una serie de cuestiones unen y distancian a la del MIT y dan acierto a la apuesta inicial, concluyendo que la hipótesis y el patrón de la misma, es el patrón de lo sincrético que modela el ”modus operandi ” del arquitecto. Tras el desarrollo, la investigación cierra filas en torno a cuatro conclusiones para los cuatro capítulos principales; C2, C3, C4, C5. La capilla del MIT como modelo prototípico no se repite en el tiempo, ni en ninguna otra universidad y se posiciona como el mejor prototipo – hito de una nueva arquitectura religiosa universitaria. In the third chapter, C3, we study and analyze the most notable elements in which are found those particularities referred to as "genetic" in each of the principal parts, (see above C3.1.1... - C3.1.8), where these influences - sometimes synergies - are traced, helping to justify and form a classification based on four of those principals (see above C3.2), from which, at the end of this chapter may be discerned a matrix pattern, that of the chapel itself (see above. C3.3.), based on concurrent architectural orders. Once the necessary information and order is obtained, we come to the decisive point in the fourth chapter, C4, where the syncretic capacity of the chapel in response to the main hypothesis indicated in the subtitle of the thesis is justified. For this, the chapter beings with the focus and context of the terms "syncretism" and "syncretic", providing justification for their use for this research, going on to assert that the chapel is syncretic from the sum of two fundamental aspects: the first corresponds to the interfaith and non-denominational capacities of the chapel, its ability to transcend both situations and be recognizable by both the religious and the scientific. The second corresponds to the sum of the different syncretic parts, each in themselves, capable of making together a syncretic building with the opposite. Once discerned the keys to the syncretic and epic in the chapel and despite its dual character both SACRED and PROFANE, a comparatison positions the chapel as being unique among interfaith examples built in the 1950s, without being repeated in the same way and with the same result over time or in any other university or centre of technology. So, the exhibition of this work ends with the last chapter, C5, in which from that comparison a number of issues come together and to distance themselves from MIT and bear out the initial proposition, concluding that the hypothesis and its pattern, the pattern of the syncretic which models the "modus operandi" of the architect to contain the ineffable. The research closes ranks around four conclusions for the four main chapters; C2, C3, C4, and C5 The chapel of MIT as a prototypical model is not repeated in time, or any other university and is positioned as the best prototype - a landmark of a new universitary religious architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background The aim of this study is to present face, content, and constructs validity of the endoscopic orthogonal video system (EndoViS) training system and determines its efficiency as a training and objective assessment tool of the surgeons’ psychomotor skills. Methods Thirty-five surgeons and medical students participated in this study: 11 medical students, 19 residents, and 5 experts. All participants performed four basic skill tasks using conventional laparoscopic instruments and EndoViS training system. Subsequently, participants filled out a questionnaire regarding the design, realism, overall functionality, and its capabilities to train hand–eye coordination and depth perception, rated on a 5-point Likert scale. Motion data of the instruments were obtained by means of two webcams built into a laparoscopic physical trainer. To identify the surgical instruments in the images, colored markers were placed in each instrument. Thirteen motion-related metrics were used to assess laparoscopic performance of the participants. Statistical analysis of performance was made between novice, intermediate, and expert groups. Internal consistency of all metrics was analyzed with Cronbach’s α test. Results Overall scores about features of the EndoViS system were positives. Participants agreed with the usefulness of tasks and the training capacities of EndoViS system (score >4). Results presented significant differences in the execution of three skill tasks performed by participants. Seven metrics showed construct validity for assessment of performance with high consistency levels. Conclusions EndoViS training system has been successfully validated. Results showed that EndoViS was able to differentiate between participants of varying laparoscopic experience. This simulator is a useful and effective tool to objectively assess laparoscopic psychomotor skills of the surgeons.