17 resultados para Prisión El Carmelo de Begoña (Bilbao)
em Universidad Politécnica de Madrid
Resumo:
Frank O. Gehry. Desarrollo del concurso del Museo Guggenheim de Bilbao. Recursos y Estrategias Gráficas empleadas en la adjudicación del concurso. Frank O. Gehry. Museo Guggenheim Bilbao. Concurso Junio 1991. Coodje Van Bruggen, en su libro sobre el Museo Guggenheim de Bilbao, publicado por el propio museo y la Fundación que lleva su nombre en el año 1997, nos informa que, en el año 1991 se convoca concurso restringido por la Fundación Guggenheim, para la realización del proyecto de un Museo que se erigiese como satélite de una de las mayores colecciones de arte contemporáneo del mundo, la de la Fundación Solomon Guggenheim. Se realizará una exposición de las circunstancias que llevaron a la elección del proyecto de F. O. Gehry como ganador en el proceso de selección del concurso. Se pretenden desvelar las hipótesis que, después de un largo trayecto, hacen viable la ubicación del museo en la ciudad de Bilbao, y no en otras ciudades de nuestro país, o incluso en otros países, y como, la figura del arquitecto F. O. Gehry con diferentes estrategias proyectuales, apoyadas en diferentes planteamientos gráficos y modelísticos, siempre al servicio de los requisitos de la propiedad, derrota a sus contrincantes arquitectos en el concurso, y es capaz de llevar a cabo la construcción del citado museo. Se hará hincapié, y se prestará especial importancia y explicación, a los desarrollos gráficos y modelísticos desarrollados por el arquitecto F. O. Gehry para el desarrollo de la propuesta arquitectónica en sus diferentes fases ejecutorias, hasta la presentación de los documentos del proyecto a ejecutar, y posteriormente se contrastarán las intenciones y los conceptos arquitectónicos manejados en la documentación gráfica elaborada, en relación a la obra ejecutada y la relación de la obra ejecutada con la ciudad de Bilbao. Se analizará e investigará en las circunstancias que llevaron a la Fundación Guggenheim, después de un amplio periodo de tiempo de inactividad fuera de su sede de New York, y coincidiendo con el relevo de Thomas Messer como director del museo, por Thomas Krens en 1987, a plantear una política de expansión de sus sedes como museos satélites o franquicias, pero siempre controladas por la sede central ubicada en el Museo Guggenheim de New York diseñado por F. LL. Wright. En la actualidad, ésta política de expansión de la colección de la Fundación Guggenheim sigue latente. En otro orden de importancia se analizará, de manera escueta, el paralelismo existente en la gestación del Museo Guggenheim de New York y la figuras de Solomon Guggenheim, la baronesa Hilla Rebay, Harry Frank?y el arquitecto F. LL. Wright, y la gestación del Museo Guggenheim de Bilbao y las figuras de Thomas Krens?y el arquitecto F. O. Gehry. Se incluirán en la comunicación imágenes explicativas de los desarrollos gráficos realizados por los arquitectos en la presentación del concurso, así como imágenes de transformación y desarrollo de éstas hasta la conclusión con imágenes explicativas de la obra construida.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.
Resumo:
El 29 de enero de 2000 Francisco Javier Sáenz de Oíza ofrece su última conferencia en el salón de actos del edificio sede del BBVA en el Paseo de la Castellana de Madrid. Esta conferencia inaugura el ciclo “El arquitecto enseña su obra”, organizado por el Colegio Oficial de Arquitectos de Madrid (C.O.A.M.) y la Escuela Técnica Superior de Arquitectura de Madrid (E.T.S.A.M.). Las obras en concreto que Oíza 'enseña' en este evento son Torres Blancas (Madrid, 1961- 1968) y Banco de Bilbao (Madrid, 1971-1980). Antes de la conferencia, blandiendo una carpeta, Oíza dice: Traigo aquí los textos de siempre, los que siempre he usado, (...) yo no he escrito ni una línea, solo he subrayado ciertos pasajes, en la medida de lo posible me gustaría leer alguno. Pero como aquí hay como para cinco horas, pues no se qué hacer. Citarlo sí, porque de ustedes el que quiera penetrar un poco en mi conocimiento, pues que vea las citas que yo hago aquí, qué pasajes, o qué libros o qué artículos propongo. 1 La carpeta que lleva Oíza en su mano contiene veinticuatro fichas mecanografiadas por él mismo. Las fichas son pasajes de textos; en su mayoría de textos literarios o poéticos, e incluyen una referencia bibliográfica que menciona: título de libro, edición y número de página. Además, en cada ficha están resaltados los pasajes que Oíza pretende leer. 2 Antes del comienzo de la conferencia Oíza dice: Tengo aquí citas de lecturas que le recomendaría a quien quiera enterarse de cómo es este edificio. 3 Durante la conferencia Oíza no parece hablar sobre las obras que debe enseñar; en cambio se dedica, casi exclusivamente, a leer en público. Esta tesis nace de lo sugerido por el propio Oíza. El objetivo general, siguiendo sus propias palabras, es 'penetrar un poco' en su conocimiento a partir de citas y recomendaciones de lecturas realizadas por él mismo al tratar sobre arquitectura. La hipótesis central plantea que por medio de sus lecturas Oíza sí habla de arquitectura, y sostiene también que a partir de sus textos es posible 'enterarse', al menos en parte, de cómo es un edificio, en particular Torres Blancas y Banco de Bilbao. Más aún, se plantea la hipótesis de que Oíza, maestro ágrafo y de carácter socrático, ha construido, no obstante, un 'discurso teórico' arquitectónico suficientemente sistemático. De modo que aún cuando Oíza no ha dejado una 'teoría' escrita es posible reconstruirla, en cierta medida, a partir de su elocución y a partir de la comprensión de sus 'lecturas'. Las fuentes primarias de esta tesis son: a) Las lecturas que Oíza recomienda en su conferencia de enero de 2000. b) Torres Blancas y Banco de Bilbao. c) Las lecturas en público realizadas por Oíza en conferencias, cursos, debates, mesas redondas, programas de TV, etc. El tema que se investiga es la relación entre los textos recomendados por Oíza y su arquitectura, y la pregunta guía de la investigación es cómo y en qué medida los textos pueden contribuir a la comprensión del pensamiento, del discurso y de la obra de Oíza. Torres Blancas y Banco de Bilbao son, en todo momento, las dos principales obras utilizadas para la observación y el contraste de los resultados de la investigación teórica en el desarrollo de la tesis. El soporte teórico y metodológico de la tesis está dado por la hermenéutica en tanto disciplina encargada de la interpretación y correcta comprensión de textos y obras, en particular por la filosofía hermenéutica de Hans-Georg Gadamer expuesta en Verdad y método. La relevancia, el aspecto original y la posible aportación al conocimiento de esta tesis consiste en una aproximación a Oíza y a su arquitectura, desde un punto de vista hasta ahora no investigado de forma sistemática, esto es, a partir de las lecturas de Oíza. ABSTRACT On 29th January 2000 Francisco Javier Sáenz de Oíza gave his last lecture in the Auditorium at BBVA headquarters located in Paseo de la Castellana avenue in Madrid. That lecture opened the series The Architect Shows his Work (El arquitecto enseña su obra) organised by the COAM Official College of Architects and the ETSAM Architecture School of Madrid. The specific works that Oíza 'shows' in his lecture were Torres Blancas (Madrid, 1961- 1968) and Banco de Bilbao (Madrid, 1971-1980). Before the lecture, waving a folder in his hand, Oíza says: I've got here the texts I've always used, (…) I haven't written a line, I've only underlined certain passages, I would like to read some of them to the extent possible. But I have here about five hours of reading, so I don't know what to do. I can cite them, yes, and anyone of you who want to delve a little into my knowledge can look at the citations I make here, the passages, books or articles I recommend. 1 The folder in Oíza's hand contains 24 files typed by the architect himself. The files consist of text passages -most of which are literary or poetry texts- and include the bibliographic citation with book the title, edition and page number. In addition, the passages Oíza intends to read are highlighted. Before starting his lecture Oíza says: I've got here citations of readings I'd recommend to those who want to realise how this building is. 2 During the lecture Oíza doesn't seem to be talking about the works he has to show, on the contrary, he focuses almost exclusively on reading texts to the audience. This thesis is the result of a suggestion made by Oíza himself. The broad aim is to 'delve a little into' his knowledge using citations and reading recommendations made by Oíza when dealing with the architecture subject. The main hypothesis proposes that Oíza talks about architecture through his readings and that starting from 'his' texts it is possible to 'realise', at least in part, how a building is, Torres Blancas and Banco de Bilbao in particular. Moreover, it is proposed the hypothesis that Oíza, as a Socratic teacher reluctant to write down his ideas, has nevertheless built a systematic 'theoretical discourse' on architecture. As a result, even when he has not written a 'theory', it is possible to reconstruct it to a certain degree, starting from his speech and from the understanding of his readings. The primary sources for this thesis are: a) The readings that Oíza recommends in his lecture of January 2000. b) The Torres Blancas and Banco de Bilbao. c) The readings done by Oíza in presentations, lectures, debates, panel discussions, television programmes, etc. The subject under research is the relationship between the texts that Oíza recommends and his architecture. The guiding question for the research is how and to what extent the texts can contribute to the understanding of Oíza's thoughts, discourse and work. Torres Blancas and Banco de Bilbao are the two main works considered along the thesis and they have been used for observation and to test the results of the theoretical research as it progresses. The thesis theoretical and methodological framework is based on the hermeneutics -as the discipline that deals with the interpretation and the correct understanding of texts and works-, in particular the hermeneutics philosophy of Hans-Georg Gadamer in Truth and Method. The relevance, the original element and the possible contribution of this thesis is given by the approach to Oíza and his architecture through Oíza's readings, a perspective that hasn't been yet systematically researched.
Resumo:
La utilización de biocombustibles derivados de aceites vegetales es una opción válida para contribuir a la reducción de emisiones de CO2 y extender la vida de los combustibles convencionales. El biodiésel (mezcla de ésteres metílicos de ácidos grasos) mezclado con gasóleo en motores diesel es una opción ya conocida, pero el análisis del comportamiento del motor en un vehículo ligero en tráfico real es aun un tema poco investigado. El objeto de esta ponencia es presentar la metodología de ensayo y los resultados obtenidos en un trabajo de investigación sobre el efecto que la variación del porcentaje de biodiesel en gasóleo tiene en las prestaciones del motor y su rendimiento térmico en tráfico urbano real. Las medidas se han realizado con equipos embarcados en un vehículo y utilizando el biodiesel producido en la Universidad de la Frontera en Temuco (Chile) mezclado en proporciones diferentes con gasóleo suministrado por Repsolypf, S.A., caracterizado en laboratorio. Los ensayos se han realizado en la ciudad de Madrid con un SEAT León TDI 2.0 con un solo conductor y aplicado dos estilos de conducción diferentes: agresiva y eficiente, caracterizadas según trabajos anteriores. Los resultados obtenidos en consumo de combustible no son los que cabía esperar en base al poder calorífico y la densidad de la mezcla, y no siguen los obtenidos en otras investigaciones realizadas en banco de pruebas. Para explicar esta discrepancia se aportan los resultados de un estudio de la energía aportada por el motor en cada instante seguido de una análisis estadístico de todo el volumen de datos obtenidos para presentar los resultados en una nueva forma que muestra cómo la potencia demandada en el vehículo es menor y el rendimiento térmico del motor diesel mejora al aumentar el porcentaje de biodiesel.
Resumo:
En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.
Resumo:
El centro de Madrid es un área urbana en transición hacia un modelo de ciudad ciclable. Su administración local está construyendo progresivamente una red de vías ciclistas y aparcamientos, en el marco del Plan Director de Movilidad Ciclista. El deseo de aumentar el porcentaje de viajes en bicicleta refuerza la importancia de conocer cómo se produce la decisión de usar la bicicleta como modo de transporte, y cómo se cambia de un comportamiento de elección modal a otro. Para ello, se ha llevado a cabo un estudio, basado en encuestas y aforos ciclistas, y en el marco de la Teoría de la Acción Planificada, antes de la implantación de dos ejes ciclistas en el centro de Madrid, cuyas variables han sido: las actitudes hacia el uso de la bicicleta como modo de transporte; las percepciones y valoraciones sobre las dificultades percibidas para la utilización de la bicicleta como modo habitual; y la disposición al cambio de uso. De forma general, los usuarios habituales de la bicicleta valoran más positivamente las características de la misma como modo de transporte, que los usuarios habituales del resto de modos. El grado de dificultad percibido por los encuestados en utilizar la bicicleta para sus desplazamientos habituales es más alto, cuanto menor es el indicador global de actitud hacia su uso. De las diferencias entre los usuarios habituales y los no usuarios se desprende que los factores comúnmente indicados como barreras al uso de este modo (el sudor, la climatología, la capacitación frente al tráfico, la condición física, las distancias, la orografía etc.), parecen ser más bien consecuencia del desconocimiento, que de la experiencia real del hecho ciclista. Otro tipo de factores (exposición relativa a la contaminación, la presencia de instalaciones complementarias, la agresividad del tráfico motorizado, el riesgo de accidentes, etc.) sí parecen ser más definitivos respecto a la elección de este modo como modo habitual. La disposición al uso futuro de la bicicleta también está muy influenciada por el hábito de uso actual. Así, los resultados de este estudio permiten conocer las características y los factores de dificultad que hay que abordar para fomentar el uso de la bicicleta como modo de transporte habitual entre la gran mayoría de la población que actualmente no utiliza este modo, y se sugieren algunas de las posibles medidas a implantar.
Resumo:
El creciente nivel de calidad de vida exigido por la sociedad de nuestro tiempo ha dado lugar al desarrollo de una normativa de Medio Ambiente por parte de los órganos de gobierno de distintas naciones, estableciendo limitaciones al nivel de ruido y vibraciones en los locales habitados, ya tratando de proteger el organismo humano frente a posibles daños o molestias, ya intentando evitar el deterioro o la disfunción de los medios materiales. En particular, el estudio del impacto ambiental provocado por el ruido y las vibraciones generadas por el tráfico ha alcanzado especial auge en las últimas dos décadas. En España, la normativa sobre el particular corresponde al ámbito municipal, lo que supone gran diversificación de normas y disposiciones. Aunque la casi totalidad de la normativa está basada en recomendaciones internacionales, existe una amplia diversidad de criterios. algunos de los cuales son erróneos o están mal transcritos. También es notable la falta de recomendaciones sobre vibraciones producidas por tráfico. Para realizar este estudio cuyas conclusiones se exponen a continuación se han elegido de forma aleatoria diez ayuntamientos españoles y se ha analizado su normativa sobre vibraciones y ruido. Las ordenanzas municipales que se han utilizado corresponden a los Ayuntamientos de Barcelona, Bilbao, Gijón, Málaga, Oviedo, Santander, Sevilla, Valencia, Valladolid y Zaragoza. La normativa sobre ruido y vibraciones de estos ayuntamientos engloba las imputables al tráfico de forma general. Así entre sus objetivos suelen incluir la organización del tráfico y los transportes colectivos, y la planificación y proyecto de vías de circulación con sus elementos de aislamiento y amortiguación acústica. Todas las normativas analizadas tienen un capítulo específico sobre vehículos automóviles. El presente estudio ha sido realizado a partir de la documentación facilitada por los referidos ayuntamientos. Los autores no se hacen responsables de las posibles inexactitudes que pudieran derivarse de trabajar con documentación incompleta o no actualizada.
Resumo:
En este año 1996, la comunidad informática mira al pasado para celebrar el cincuentenario del nacimiento de ENIAC, el primer ordenador electrónico de propósito general, que podía calcular en treinta segundos la trayectoria de sesenta segundos de duración de un proyectil, mientras que, para el mismo cálculo, el mayor analizador diferencial de la época tardaba quince minutos y un experto con una calculadora de sobremesa necesitaba alrededor de veinte horas.
Resumo:
El presente proyecto tiene como finalidad la construcción del viaducto que permita dar continuidad a la línea de alta velocidad denominada “Y Vasca” (Bilbao-Vitoria-San Sebastián). Más concretamente, se encuadra en el tramo Atxondo-Abadiño, estando ubicado el futuro viaducto a la altura del primer municipio. El objetivo principal del proyecto es realizar un estudio con el suficiente grado de detalle para que nos permita definir, diseñar y justificar la solución completa que mejor se adapte a nuestras necesidades, es decir, que se integre de una forma armónica en la línea de alta velocidad. Se pretende que este proyecto contenga todos los elementos necesarios que permitan la definición y la construcción del viaducto, cumpliendo en particular la adaptación al trazado de la Línea de Alta Velocidad (LAV) en la que se enmarca, y que se ajuste a la normativa vigente.
Resumo:
Para todos es conocido que la Educación Física se encuentra en una verdadera crisis, crisis que se manifiesta en la complejidad de planos que la constituyen. Puede que no sea este el lugar ni el momento de hacer un estudio exhaustivo de la situación actual de la educación física, pero si es necesario dejar claro que el conjunto de esta tesina viene a dar una respuesta real a una problemática real y,lo que es más importante, intentando en todo momento clarificar la importancia, la necesidad y la identidad de la educación física. Evidentemente es un diseño de trabajo, es un plan que comienza a vivir y por lo tanto no podemos hablar de los resultados de largo plazo, pero si tiene este plan una fuerza especial por 2 cuestiones concretas: 1ª - El hecho de tratarse de una innovación pedagógica a través de la educación física. 2ª - Esta innovación no tiene un protagonista, sino que son todos los implicados en la tarea a través de colaboraciones que pretenden dar respuesta a una serie de inquietudes, de las que todos participan. Tiene esta tesina dos bloques importantes, bajo mi punto de vista. EI primero hace referencia a cómo se han detectado todas aquellas necesidades que han de ser base en una construcción que quiere ser firme. El segundo abre una serie de vías imprescindibles para ejercitar esta innovación tan necesaria, aunque desgraciadamente menos conocida, para dar respuesta a muchos problemas educacionales y sociales que la sociedad tiene planteados. Tanto un bloque como otro surge de un contacto con todos los componentes del plan, profesores, alumnos, entidades públicas de servicio deportivo, administración, ..., sin olvidar la idea de hacer con todos, pues es esta, entendemos, la única forma de hacer; aquí ya podemos ofrecer resultados, no a largo alcance, sino el resultado que nos ofrece el ver como poco a poco va consiguiendo nuevas adhesiones y nuevos entusiasmos. Quisiéramos destacar un importante punto final que tácitamente queda expuesto en el trabajo. El que hace referencia a la importancia de las escuelas de formación del profesorado de E.G.B.,dado que sus ideales, su edad y el no estar anclados, en unas técnicas, los hacen más propicias a la colaboración y pueden ser verdaderos motores del cambio si han sido formados adecuadamente.
Resumo:
En este artículo se presenta en primer lugar el marco de referencia de cálculo correspondiente al Eurocódigo EC-7 basado fundamentalmente: en la definición de los ?estados límite últimos y de servicio? a cumplir por las distintas actuaciones geotécnicas, en la adopción de un método de cálculo basado en coeficientes parciales que afectan a las acciones o efectos de las acciones, a los parámetros geotécnicos de los materiales y a las resistencias del terreno, y en la determinación de diferentes ?enfoques de proyecto? que constituyen distintas formas de cuantificar la incertidumbre en el cálculo de los estados límite. Con objeto de explicar el cálculo de la estabilidad de pantallas de acuerdo a la metodología introducida por el EC-7 y de explicar las razones que han llevado a definir los valores de los coeficientes parciales a usar en España, se han analizado varias situaciones sencillas (pantalla en voladizo con y sin sobrecarga y con el nivel freático profundo y pantalla en voladizo sin carga con el nivel freático somero) comparando las expresiones utilizadas para los cálculos de acuerdo al EC-7 y a la práctica habitual española. Por último, se describe el procedimiento operativo y el esquema de cálculo que se debe llevar a cabo para el análisis de la estabilidad global de una pantalla mediante la utilización de programas comerciales basados en el modelo de Winkler.
Resumo:
La autopista del Ebro, en el itinerario Bilbao-Zaragoza, ha sido objeto de concurso para su construcción y explotación en régimen de peaje, siendo adjudicataria de la misma la empresa Autopista Vasco-Aragonesa, Concesionaria Española, S.A. La concesión de la construcción y explotación del mencionado itinerario, incluía la obligación de construir la Ronda Norte de Zaragoza, que se desarrolla a lo largo de 11 kilómetros entre la Carretera Nacional II, de Madrid a Barcelona, y la autopista de Alfajarín, comienzo del itinerario Zaragoza-Vendrell que completa la Autopista del Ebro. El itinerario total está dividido en once tramos, de los que el décimo se desarrolla entre el enlace de Alagón y Zaragoza, y el undécimo es la propia Ronda Norte de Zaragoza. Estos dos tramos se cruzan prácticamente en ángulo recto a unos 4 kilómetros de la Avenida de Mª Agustín, donde finaliza la Autopista. En el Anteproyecto de la Administración se daba continuidad a la Ronda Norte y a la penetración de la Autopista en Zaragoza, dejando el recorrido Bilbao-Barcelona como un ramal del enlace. La Sociedad Concesionaria introdujo una modificación sustancial en éste, que fue aprobada por la Administración, dando continuidad geométrica y funcional a la Autopista del Ebro, a través del tramo de Ronda Norte, hacia la autopista ya existente Zaragoza- Alfajarín, y con la que estaba entonces en construcción y hoy ya está en funcionamiento, de Alfajarín a Vendrell. De esta forma, la penetración en Zaragoza, del itinerario Bilbao-Zaragoza, se desprende del tronco principal como un ramal de acceso, e igualmente lo hace la propia Ronda Norte, en su dirección hacia la carretera N-II.
Resumo:
El artículo analiza el proceso de rehabilitación de los barrios de Bilbao la Vieja, San Francisco y Zabala entre los años 1990 y 2014. El caso es destacable en el panorama de la rehabilitación urbana en España por ser una experiencia de largo recorrido con intervenciones de rehabilitación edificatoria, de renovación urbana y de regeneración urbana, entendidas como multidimensionales desde los primeros planes, y cuyo modelo de gestión, bajo el liderazgo y compromiso institucional, ha ido adaptándose a las circunstancias cambiantes y al desarrollo del propio proceso.
Resumo:
El Anillo Verde metropolitano, definido por el Plan General de Ordenación Urbana del Área Metropolitana de Madrid en 1963 siguiendo los modelos planteados por la cultura urbanística internacional, como armadura de la estructura urbana del AMM, espacio protagonista dentro del sistema de espacios libres, lugar de uso público destinado al recreo y contacto con la naturaleza de la población madrileña, se convierte en realidad en una reserva de suelo que va entrando en juego motivado por las alianzas entre el poder institucional y la clase social dominante actuando al margen del planeamiento, poniendo en evidencia la escasez de recursos legales y culturales disponibles para la salvaguarda de los intereses comunes y, donde los condicionantes geográficos y naturales del territorio madrileño han influido decisivamente en la especialización funcional y espacial del Área Metropolitana de Madrid. Así pues considerando esta idea como HIPÓTESIS, el objetivo de la TESIS sería demostrarla, para lo cual se hace necesario primero, acotar espacial y temporalmente el objeto de estudio, es decir, del Anillo Verde metropolitano1, segundo, contextualizar histórica y disciplinarmente los presupuestos teóricos que conformaban la idea del Anillo Verde, tercero, reconocer, localizar y documentar las piezas que han ido materializando la ocupación urbana del Anillo Verde, clasificándolas según parámetros temporales, funcionales, urbanísticos y, formales, lo que permite analizar la geografía, uso, instrumentación y forma de su transformación a escala general metropolitana y, cuarto, profundizar a modo de comprobación a escala municipal y urbana en dos escenarios representativos del conjunto metropolitano: el municipio de Pozuelo de Alarcón y el distrito de Hortaleza-Barajas. El contenido del documento se divide en tres bloques, el bloque I, se centra en las bases teóricas, el bloque II sitúa el hilo argumental de la tesis a escala metropolitana y el bloque III comprueba el fenómeno a escala municipal y urbana. De esta forma, se comienza por la comprensión del significado del concepto del Anillo Verde, que va más allá de la dimensión instrumental asignada de límite y contención urbana frente al crecimiento de la ciudad industrial de principios del siglo XX, basada en la descentralización de la ciudad tradicional, para adquirir un significado más complejo, como gran espacio de reserva y salvaguarda de valores naturales y culturales que se expresaban en su territorio y que permitirían alcanzar el equilibrio entre la ciudad y sus habitantes, es decir, entre el hombre y el espacio que habita. Se hace un recorrido por las principales corrientes urbanísticas que se van nutriendo de distintas disciplinas (economía, sociología, geografía, biología, ecología) para plantear teorías que permitieran materializar un nuevo orden urbano según principios de equidad social, económica y ambiental, en una secuencia donde Europa y Estados Unidos realizaban un constante intercambio -el movimiento de la Ciudad Jardín o el Regionalismo, que dieron paso a propuestas como el Greater London o el Gran Berlín, donde la figura del Anillo Verde tenía un papel protagonista, y del que también participaría nuestro país y la ciudad de Madrid, con modelos regionales como el Plan Besteiro y urbanos como el Plan Bidagor, antecedentes directos del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963 que pone en marcha la ordenación del crecimiento metropolitano de Madrid. El hilo argumental de la tesis se organiza en una doble aproximación: un acercamiento a escala metropolitana a partir del reconocimiento del modelo de ciudad definido en los distintos planes generales que acompañaron el desarrollo metropolitano (municipio de Madrid y de los siete términos municipales que rodeaban a este y que tenían suelo destinado a Anillo Verde), haciendo referencia además a las relaciones con el planeamiento regional, concretando en una escala de aproximación municipal que avanza hasta la interpretación urbana detallada. El primer acercamiento tiene lugar en el bloque II y se organiza en tres capítulos. El capítulo 4 se dedica al punto obligado de partida de la geografía local, describiendo las características biofísicas de los terrenos que formaban parte del Anillo Verde, que han marcado históricamente la forma de aprovechamiento del territorio, desde las extensiones de bosques mediterráneos al norte y al oeste continuación del Monte del Pardo, a los distintos tipos de cultivo que se adaptaban al sustrato geológico y la forma del terreno (de las suaves ondulaciones de sedimentos arcósicos al norte a las extensas plataformas arenosas y yesíferas del sur), además de las zonas de huertos aprovechando las depresiones y los cursos de agua (arroyo del Monte Carmelo, arroyo de Valdebebas, arroyo del Quinto, arroyo del Santo, arroyo Butarque, arroyo Meaques y arroyo Pozuelo). Una vez reconocida la realidad física, el capítulo 5, avanza en la descripción de los distintos modelos de ciudad propuestos desde el planeamiento urbanístico, en sus distintas escalas, la regional y la municipal, como respuesta a la coyuntura social, económica y política que ha caracterizado el proceso de ocupación del Anillo Verde al compás de la construcción del AMM. Se han reunido las propuestas de planeamiento municipal de los distintos municipios que disponían de terreno calificado como Anillo Verde: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte y Pozuelo de Alarcón. Además se han incorporado las distintas propuestas de ordenación territorial que han servido de referencia al planeamiento municipal, en todas sus versiones, desde las sectoriales, de mayor éxito y apoyo institucional, a los distintos intentos de ordenación integral, de mayor complejidad pero de menor calado, precisamente por la dificultad de consenso entre la ordenación física y el desarrollo económico, entre los intereses privados y el beneficio público. El primer horizonte, comienza con la formulación del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963, su desarrollo y la puesta en marcha de los primeros planes municipales en la década de los años setenta, donde se comprueba la necesidad de un marco regional que “ordene” el territorio de forma integral y sirva de referencia a las actuaciones sectoriales que habían marcado el primer desarrollo metropolitano. El segundo, se sitúa dos décadas más tarde con la aprobación del Plan General de Ordenación Urbana de Madrid de 1985 y el conjunto de planes municipales de los términos limítrofes, que siguen su filosofía de austeridad en cuanto a crecimiento territorial. El tercero se inicia en 1997 con la siguiente generación de planes de corte neoliberal que imponen un modelo territorial basado en las grandes operaciones metropolitanas de centralidad, infraestructuras y equipamiento, que consumen de forma indiscriminada la totalidad del territorio madrileño. Será en el último capítulo del segundo bloque (capítulo 6) donde se represente gráficamente a escala metropolitana y se analicen las 229 piezas que han ido colmatando el espacio destinado a Anillo Verde, según los parámetros de estudio, en base a las cuales se plantean las primeras conclusiones generales de la tesis, poniendo de manifiesto que las alianzas entre los agentes soberanos en la construcción de la ciudad y su entorno han trasgredido sucesivamente las determinaciones del Planeamiento en su definición de modelo de ciudad y territorio, acusando la carencia de recursos instrumentales y jurídicos que alentaron el proceso de su desmantelamiento, y revelando la influencia de los condicionantes geográficos y naturales en la especialización funcional y segregación social en el conjunto del Área Metropolitana de Madrid. Se remata el discurso metropolitano con una batería de conclusiones que interpretan el fenómeno de ocupación del anillo de verdor metropolitano confirmando las hipótesis iniciales, reconociendo los valores medioambientales y culturales trasgredidos, sus diversos actores, las numerosas operaciones urbanísticas desarrolladas con distintos usos y envergadura, así como los instrumentos de planeamiento utilizados, en base a las cuales se materializa la construcción del AMM según un modelo extendido (spread), dibujando una mancha de aceite (o grase-spots según Geddes) que precisamente había querido evitarse desde el planeamiento urbanístico con la definición de un Anillo Verde, espacio inmune a la edificación, que se aleja de su papel estructurante (equilibrador entre la ciudad y sus habitantes) para convertirse en armadura de la estructura comunicativa, que una vez consolidada se convierte en la mejor aliada de la máquina inmobiliaria. El último paso, se desarrolla en el bloque III que se divide en los capítulo 7,8 y 9 y supone la comprobación de lo descrito en el conjunto de escala metropolitana, en dos aspectos fundamentales, la falta de consideración por los valores culturales y medioambientales que han modelado el territorio, imprimiéndole un carácter singular y específico y, la estructura del dominio del suelo, donde se reconoce de forma precisa el grupo social y los agentes encargados en cada momento de comercializar los suelos del anillo, que bajo el paraguas de la urgencia social y el engañoso beneficio popular, obtienen importantes beneficios económicos. Con esa intención, se da un salto hacia la escala municipal y urbana, seleccionando dos escenarios de estudio, el municipio de Pozuelo de Alarcón, que representa la materialización del crecimiento suburbano de la élite madrileña ocupando las zonas de mayor valor ecológico del anillo, y el distrito de Hortaleza-Barajas que ofrece su territorio a las grandes operaciones metropolitanas, apoyándose en el eje de actividad marcado por la conexión Madrid-Barcelona y el sistema aeroportuario de escala global, ambos situados al norte de la línea de borde entre la Sierra y la Mancha, ocupando por tanto los lugares más valiosos de la geografía madrileña (estructura funcional anticipada por Bidagor en 1946 en su modelo de ciudad adaptada al territorio madrileño) Una vez descrito este proceso trasgresor de límites, de normas, de conductas, y desde una perspectiva del fenómeno suficientemente documentada, en el capítulo 10, se realiza una reflexión sobre la incidencia real de la propuesta urbanística del Anillo Verde en la construcción del AMM, de la misma forma que se sugieren nuevos roles al planeamiento en un formato intencionado de largo recorrido en oposición a lo inmediato y circunstancial, que permita hacer una nueva lectura de los presupuestos teóricos que conformaban la idea del Anillo Verde, espacio articulador (medioambiental, social y cultural) del territorio madrileño. ABSTRACT The Metropolitan Greenbelt was defined by the 1963 Master Plan for the Madrid Metropolitan Area (MMA), following established international models of urban development, as the structural framework of the MMA, the principal open space within its network of open spaces and a public area of recreation and contact with nature for the residents of Madrid. In reality, however, it ha become a reserve of land in which various alliances between the institutional authorities and the dominant social class have been operating on the margin of the original plan, exposing a scarcity of legal and cultural resources for the safeguarding of common interests, and in which the geographical and natural characteristics of the territory itself have come to play an influential role in the functional specialization and spatial segregation of the MMA. With that idea as its HYPOTHESIS, the aim of this THESIS is to demonstrate its reality. The first step in this is to delineate, temporally and spatially, the object of study; i.e. the Metropolitan Greenbelt2. The second is to contextualize historically and disciplinarily those theoretical ideas which conform to the greenbelt concept. The third is to acknowledge, locate and document the elements which have characterized the urban occupation of the Greenbelt and classify these according to the parameters of time, function, urban development and form, which in turn would enable the geography, use, instrumentation and form of its transformation to be analysed on a general metropolitan scale. The fourth step, as a method of verification, is an in-depth analysis of two representative settings within the metropolitan network: the municipality of Pozuelo de Alarcón and the Hortaleza-Barajas district. The content of the document is divided into three parts. Part I focuses on the study’s theoretical foundations, Part II establishes a line of argument at the metropolitan level and Part III examines the phenomenon from a municipal and urban perspective. The thesis, then, begins with a study of the greenbelt concept itself and its meaning, which is far more complex than the accepted instrumental dimension of limiting and containing urbanization in response to the growth of the industrial city of the early 20th century, and which is based on a decentralization of the traditional city. This wider purpose is the setting aside of a large reserved space to safeguard the natural and cultural values of the region and thereby achieve a balance between the city and its residents; that is to say, between man and the space he inhabits. The principal currents of thought in urban planning will then be examined. These have drawn upon a variety of disciplines (economics, sociology, geography, biology, ecology) to develop theories for establishing a new urban order according to the principles of social, economic and environmental equity, and have involved a constant interchange between Europe and the United States. Thus, the City Garden and Regionalist movements would clear the way for proposals such as Greater London and Great Berlin, Chicago and Washington, in which the greenbelt would play a fundamental role. The participation of our own country and the city of Madrid is also discussed, through regional models such as the Besteiro Plan and urban ones like the Bidagor Plan, direct forerunners of 1963’s General Organizational Plan for the Madrid Metropolitan Area, which would set into motion the organization of Madrid’s metropolitan growth. The line of argument followed in this thesis is two-fold: first, an examination of metropolitan development in keeping with the city model as defined in the various General Plans for the development of both the municipality of Madrid and the seven surrounding municipalities which have land designated for its Greenbelt; and second, an examination of this growth in relation to Regional Planning measures, is detailed on a smaller scale (municipal and district), where the conditioning factors affecting the land property structure and the network of biophysical units may be analysed in depth. The first of these is dealt with in Part II and organized into three chapters (4, 5 and 6). Chapter 4 is dedicated to the obligatory starting point of the geographical setting itself. The biophysical characteristics of the territories set aside for the Greenbelt, and which historically have played a role in the area’s exploitation, are described here. These range from expanses of Mediterranean woodland to the north and west of Monte del Pardo to the various types of farmland that have been adapted to the geological substratum and the contours of the terrain (gentle undulations of arkosic sediment in the north, and wide sandy and gypsiferous tableland in the south), as well as orchards planted in low valleys and along watercourses (the creeks of Monte Carmelo, Valdebebas, Quinto, Santo, Butarque, Meaques and Pozuelo). Once this physical reality ha been detailed, in Chapter 5 will examine the various city models proposed by urban planners, both regionally and municipally, in response to the confluence of social, economic and political interests that have characterized the process of occupation in the Greenbelt area during the construction of the MMA. Municipal planning proposals will be collected and examined for the various municipalities which have land designated for the Greenbelt: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte and Pozuelo de Alarcón. Furthermore, the various territorial organization proposals which have served as references for municipal planning will also be addressed here, in all of their versions –from the sectorial, which have met with more success and institutional approval, to the many attempts at integration, which have been more complex but less influential, precisely for the difficulty of reconciling physical organization with economic development, and private interest with public benefit. The first period in this process was the development of the General Plan of 1963, followed by the first municipal development plans of the 1970s, in which the need for a regional framework that “organized” the territory in an integral fashion was defined. This would serve as a reference for the sectorial actions that marked the metropolitan area’s initial development. The second came two decades later with the approval of the General Plan of 1985, and the network of municipal plans for the surrounding communities, which followed the same philosophy of austerity with regard to territorial growth. The third would begin to take form in 1997, as a new generation of neo-liberal development plans imposed a territorial model based on centralized large-scale metropolitan operations of infrastructure and equipment, which would indiscriminately consume the totality of Madrid’s land. At the end of the Part II, in Chapter 6, the metropolitan area will be represented graphically and the 229 pieces that have been gradually encroaching upon land designated for the Greenbelt will be analysed. This analysis will be carried out according to the parameters defined for the study, and the first general conclusions of the thesis will be based on its findings. It will show how alliances between the various governing authorities in the construction of the city and its environment have successively violated established plans with regard to the definitions of city and territory, how shortages of instrumental and judicial resources have accentuated the dismantling process, and how natural and geographical factors have influenced functional specialization and social segregation in the Madrid Metropolitan Area. The final step, detailed in Part III, will address two fundamental aspects of what has just been described: the lack of consideration for the cultural and environmental values which have shaped this territory and imprinted upon it a specific and unique character; and the structure of land domination, with a precise identification of the social group and agents responsible at each stage of the Greenbelt’s commercialization, who, under an umbrella of social urgency and deceptive public benefit, have used it to obtain substantial financial rewards. For this purpose, a closer look is taken at two specific areas: the municipality of Pozuelo de Alarcón, representative of the suburban growth of an elite population which has occupied the Greenbelt areas of the greatest ecological value; and the Hortaleza-Barajas district, which has offered its territory to large metropolitan business interests, based on activities centred on the connection between Madrid and Barcelona and the system of international air travel. Both of these settings are located to the north of the line which divides the Sierra from La Mancha, and thus occupy the most valuable land in the Madrid region (a functional structure anticipated by Bidagor in 1946, with his city model adapted to the territory of Madrid). Finally, an attempt will be made to interpret the phenomenon of metropolitan Greenbelt occupation, confirming initial hypotheses, specifying the environmental and cultural values that have been violated, and identifying the various players involved, as well as numerous urbanization operations of varying sizes and interests, and the instruments of planning they have used. It will be seen from this that the construction of the MMA has in fact followed a “spread” model, a “grease spot” (as Geddes calls it) which, from the outset of the planning process and according to the definition of a greenbelt as a construction-free zone, was precisely to be avoided. This structural role (to provide a balance between a city and its residents) has thus been abandoned and the Greenbelt converted instead into a communicative framework which, once consolidated, has become the greatest ally of the real estate machine. After this process of violating limits, norms and established behaviour has been described and solidly documented, a reflection will be made on the real influence of the Greenbelt proposal in the construction of the MMA. At the same time, new roles will be suggested for future planning, roles which are deliberate and long term, in opposition to the immediate and circumstantial. This will enable a new interpretation of the theoretical principles behind the greenbelt concept, a space designed to connect the territory of Madrid environmentally, socially and culturally.