36 resultados para Años sesenta y setenta
em Universidad Politécnica de Madrid
Resumo:
En 1978, Norman y Wendy Foster proyectan su propia vivienda en el barrio londinense de Hampstead. A caballo entre el Sainsbury Centre for Visual Arts y el Banco de Hong Kong, esta casa, que no llegó a realizarse, representa el primer y único intento de aplicación en el campo de la arquitectura doméstica de un modelo, “la nave bien servida”, desarrollado por el Team 4 y posteriormente por Foster Associates durante los años sesenta y setenta. La casa de los arquitec- tos —como en tantos otros casos— permite rastrear, mejor que ninguna otra obra, los referentes, las obsesiones, los sueños y las frustraciones de sus autores. El desarrollo del proyecto refleja la evolución del estudio, inmerso en un intenso debate entre el funcionalismo fabril de “la nave bien servida” y el expresionismo tecnológico del denominado movimiento High-Tech.
Resumo:
A finales de Julio de mil novecientos sesenta y nueve, las televisiones de todo el mundo repetían una vez y otra las imágenes de Armstrong paseando por la superficie de la Luna. En los diálogos que se oían por los pasillos y las aulas de las universidades americanas se juzgaba que aquello no era sino una forma de distraer la atención de la gente para ocultar el problema que de verdad importaba: las noticias sobre la guerra del Vietnam. En octubre, más de quince millones de personas se manifestaban en Washington pidiendo el fin de la misma. Algunos estudiantes españoles recién llegados miraban a su alrededor tratando de adaptarse al nuevo medio en el que se encontraban. Parecía que en todas partes estaba empezando algo diferente. Les decían que la sociedad tenía que cambiar y que los nuevos tiempos verían nuevas formas de vida. De donde venían también recordaban que habían oído decir cosas similares aunque el sentido fuera otro.
Resumo:
Durante el verano de 2013 Manhattan albergó las muestras de dos artistas que trabajan con la luz y el espacio: una amplia exposición retrospectiva de James Turrell en el Museo Guggenheim y una instalación de Robert Irwin para el Museo Withney de Arte Americano. Ambos han hecho de la percepción el elemento fundamental de sus obras en una investigación que comenzó en los años sesenta y que han continuado desarrollando a lo largo de los últimos cuarenta y cinco años. Los dos compartieron en sus comienzos una línea de investigación conjunta, sis investigaciones sobre las sensaciones en el espacio y su estudio empírico fueron cruciales para el desarrollo de sus obras que hacen de la experiencia espacial un mecanismo de trascendencia. Sus trabajos son de gran interés para la arquitectura poarque los dos hacen de la percepción en el espacio el argumento fundamental de su investigación artística.
Resumo:
Durante los últimos 30 años se han creado una gran cantidad de índices e indicadores para evaluar la práctica totalidad de los países bajo distintas premisas. La tesis parte de un análisis detallado de más de un centenar de estos índices diferenciados entre los enfocados al desarrollo y los enfocados a la competitividad económica (véase Módulo I anexo) y tras esto, dentro del estudio teórico nos hemos centrado en 35 indicadores relacionados con la tecnología (capítulo 3, apartado 3.3.). La justificación, el objetivo de la investigación y la estructura de la tesis se presenta en el capítulo 2. Respecto a la metodología, tal y como se plantea en la hipótesis (apartado 2.2.), se presentan los criterios de selección de seis grupos de países (EP, EPC, EC, ECI, EI y EM)1, que se van a evaluar. Posteriormente se plantea el Protocolo de Cálculo para el total de grupos seleccionados dentro de los periodos 2005-2006 y 2007-2008 y se realiza una profunda evaluación estadística como se plantea dentro de la coherencia estadística explicada en el apartado 3.4.4.5. (también se dispone de los cálculos dentro de los Módulos II, III, IV y V anexos). Tras la metodología establecemos la construcción de un índice sintético NRI(A) y, tras esto, estudiamos las relaciones así como la interpretación de los resultados (capítulo 4, apartado 4.1.). Una vez obtenidos los resultados realizamos la validación de los mismos para el periodo 2007-2015 (capítulo 4 - apartado 4.2. – y los Módulos VI y VII anexos). En el capítulo 5, evaluamos el nivel de preparación tecnológico y su relación con la competitividad para los seis grupos de países (véase desde los apartados 5.1.y 5.2.). Dentro de cada uno de los seis grupos de países, sabemos las variables que cualitativamente tienen que priorizarse para mejorar el nivel de preparación tecnológica de los mismos. Estas variables inicialmente son sesenta y ocho – año 2007-08 –, y al final de la implementación del método se reducen notablemente. Estas variables finales, llamadas Indicadores Clave de Actuación (ICA), se agrupan – vía análisis factorial – en Factores Clave de Actuación que nos simplifican lo planteado. Para cada grupo de países se realizan los conglomerados de acuerdo a sus valores dentro de las ICAs en busca de singularidades y se ha llevado a cabo un análisis minucioso en función de los Indicadores Clave de Actuación. La Tesis, plantea científicamente como podemos evaluar el nivel de preparación tecnológica y su relación con la competitividad, desde un índice sintético creado NRI(A), que contempla únicamente Indicadores Clave de Actuación (variables seleccionadas) a partir de las variables originales del Network Readiness Index (NRI(R)) . Por último se plantea dentro de las conclusiones, capítulo 6, diferentes líneas de investigación, desarrollando dos de ellas que se pueden encontrar en el Modulo VIII anexo. Por un lado presentamos una línea de investigación centrada en 29 economías africanas (EA) de las que disponemos información fidedigna y por otro lado una segunda línea en la que nos centramos en la evaluación de España respecto a sus naciones coetáneas. La principal voluntad de la presente tesis doctoral, es simplificar la evaluación del nivel de preparación tecnológica y la relación de esta con la competitividad a partir de la creación de un índice sintético propio NRI(A). ABSTRACT - During the last 30 years, many institutions have been evaluating and endless range of variables in practically all of the world´s economies. This Thesis is the product of a detail analysis of more than one hundred indicators / index, which we have divided into two parts: those focused on development and those focused on economic competitiveness (see module I annex). Secondly, in our theoretical research we have concentrated on those indicators, which are related to technology (chapters 3, section 3.3). The selection criteria of the six economic groups to be evaluated are included in our methodology, as mentioned in the hypothesis (see section 2.2.). Subsequently the calculation procedure is also presented for all of the groups selected between the periods 2005-2006 and 2007-2008. Next, we perform a statistical study, which is presented accordingly in the segment dealing with statistics, section 3.4.4.5. The calculations are provided in modules I, II, III, IV and V annex. After the methods segment of the Thesis, we develop our argument, in which we presented the explanation of the relations as well as the interpretation of the results. Also at the chapter 4 you can find the result validation from 2007 till 2015. Finally in chapters 6, we evaluate the conclusions for the six economic groups (see section 6.2.). The Thesis scientifically explains the way in which we evaluate economic competitiveness in 135 countries from a standpoint of strictly technological variables. Six groups of countries are evaluated, being divided by criteria, which homogenize the economies under review. We recognize that the variables of each economic group should be prioritized in order to better their competitiveness. Initially the group consisted of 68 variables, a number which was considerably reduced after the implementation of our methodology. Likewise, these final variables, dubbed “key performance indicators”, were grouped into factors (key performance factors), which greatly simplify the prioritization process. At the same time, conglomerates have been created for each economic group according to their value concerning the selected variables. A detailed country – by – country analysis of their positioning in each of the six groups was conducted for each of the mathematically selected key performance indicators. Finally, at the Conclusion we introduce new research lines and between them we focus on two research lines in which ones we are working with (see chapter 6). We basically try to apply the multivariable analysis method, the factorial analysis and the conglomerates to designed and implemented our method first in a geographically group of countries (Africa) and secondly to evaluate and develop the public policies for Spain for the development of its competitively, comparing Spain to his coetaneous countries in Europe (see Module VIII). The main objective of this Doctoral Thesis is to noticeably simplify the comparison of the Network Readiness Index and its relation with the economic competitiveness of the countries using a new synthetic index design by us.
Resumo:
The present study analyzed the differences in distance throwing with heavy and light medicine ball and throwing velocity between handball players of different competitive and professional level. Likewise, the relationship between the three throwing test of progressive specificity was analyzed: throwing with heavy medicinal ball (TH), throwing with light medicinal ball (TL) and throwing velocity (TV). For this purpose, sixty-five professional (P), semiprofessional (S) and non-professional (N) players were evaluated. El presente estudio analizó las diferencias en la distancia de lanzamiento realizado con balón medicinal pesado y ligero y en la velocidad de lanzamiento entre jugadores de balonmano de diferente nivel competitivo y profesional. Igualmente, la relación entre los tres test de lanzamiento, de progresiva especificidad, fue analizado: lanzamiento con balón medicinal pesado (TH), lanzamiento con balón medicinal ligero (TL) y velocidad de lanzamiento (TV). Para ello, sesenta y cinco jugadores profesionales (P), semi-profesionales (S) y no-profesionales (N) fueron evaluados.
Resumo:
La concentración fotovoltaica (CPV) es una de las formas más prometedoras de reducir el coste de la energía proveniente del sol. Esto es posible gracias a células solares de alta eficiencia y a una significativa reducción del tamaño de la misma, que está fabricada con costosos materiales semiconductores. Ambos aspectos están íntimamente ligados ya que las altas eficiencias solamente son posibles con materiales y tecnologías de célula caros, lo que forzosamente conlleva una reducción del tamaño de la célula si se quiere lograr un sistema rentable. La reducción en el tamaño de las células requiere que la luz proveniente del sol ha de ser redirigida (es decir, concentrada) hacia la posición de la célula. Esto se logra colocando un concentrador óptico encima de la célula. Estos concentradores para CPV están formados por diferentes elementos ópticos fabricados en materiales baratos, con el fin de reducir los costes de producción. El marco óptimo para el diseño de concentradores es la óptica anidólica u óptica nonimaging. La óptica nonimaging fue desarrollada por primera vez en la década de los años sesenta y ha ido evolucionando significativamente desde entonces. El objetivo de los diseños nonimaging es la transferencia eficiente de energía entre la fuente y el receptor (sol y célula respectivamente, en el caso de la CPV), sin tener en cuenta la formación de imagen. Los sistemas nonimaging suelen ser simples, están compuestos de un menor número de superficies que los sistemas formadores de imagen y son más tolerantes a errores de fabricación. Esto hace de los sistemas nonimaging una herramienta fundamental, no sólo en el diseño de concentradores fotovoltaicos, sino también en el diseño de otras aplicaciones como iluminación, proyección y comunicaciones inalámbricas ópticas. Los concentradores ópticos nonimaging son adecuados para aplicaciones CPV porque el objetivo no es la reproducción de una imagen exacta del sol (como sería el caso de las ópticas formadoras de imagen), sino simplemente la colección de su energía sobre la célula solar. Los concentradores para CPV pueden presentar muy diferentes arquitecturas y elementos ópticos, dando lugar a una gran variedad de posibles diseños. El primer elemento óptico que es atravesado por la luz del sol se llama Elemento Óptico Primario (POE en su nomenclatura anglosajona) y es el elemento más determinante a la hora de definir la forma y las propiedades del concentrador. El POE puede ser refractivo (lente) o reflexivo (espejo). Esta tesis se centra en los sistemas CPV que presentan lentes de Fresnel como POE, que son lentes refractivas delgadas y de bajo coste de producción que son capaces de concentrar la luz solar. El capítulo 1 expone una breve introducción a la óptica geométrica y no formadora de imagen (nonimaging), explicando sus fundamentos y conceptos básicos. Tras ello, la integración Köhler es presentada en detalle, explicando sus principios, válidos tanto para aplicaciones CPV como para iluminación. Una introducción a los conceptos fundamentales de CPV también ha sido incluida en este capítulo, donde se analizan las propiedades de las células solares multiunión y de los concentradores ópticos empleados en los sistemas CPV. El capítulo se cierra con una descripción de las tecnologías existentes empleadas para la fabricación de elementos ópticos que componen los concentradores. El capítulo 2 se centra principalmente en el diseño y desarrollo de los tres concentradores ópticos avanzados Fresnel Köhler que se presentan en esta tesis: Fresnel-Köhler (FK), Fresnel-Köhler curvo (DFK) y Fresnel-Köhler con cavidad (CFK). Todos ellos llevan a cabo integración Köhler y presentan una lente de Fresnel como su elemento óptico primario. Cada uno de estos concentradores CPV presenta sus propias propiedades y su propio procedimiento de diseño. Además, presentan todas las características que todo concentrador ha de tener: elevado factor de concentración, alta tolerancia de fabricación, alta eficiencia óptica, irradiancia uniforme sobre la superficie de la célula y bajo coste de producción. Los concentradores FK y DFK presentan una configuración de cuatro sectores para lograr la integración Köhler. Esto quiere decir que POE y SOE se dividen en cuatro sectores simétricos cada uno, y cada sector del POE trabaja conjuntamente con su correspondiente sector de SOE. La principal diferencia entre los dos concentradores es que el POE del FK es una lente de Fresnel plana, mientras que una lente curva de Fresnel es empleada como POE del DFK. El concentrador CFK incluye una cavidad de confinamiento externo integrada, que es un elemento óptico capaz de recuperar los rayos reflejados por la superficie de la célula con el fin de ser reabsorbidos por la misma. Por tanto, se aumenta la absorción de la luz, lo que implica un aumento en la eficiencia del módulo. Además, este capítulo también explica un método de diseño alternativo para los elementos faceteados, especialmente adecuado para las lentes curvas como el POE del DFK. El capítulo 3 se centra en la caracterización y medidas experimentales de los concentradores ópticos presentados en el capítulo 2, y describe sus procedimientos. Estos procedimientos son en general aplicables a cualquier concentrador basado en una lente de Fresnel, e incluyen tres tipos principales de medidas experimentales: eficiencia eléctrica, ángulo de aceptancia y uniformidad de la irradiancia en el plano de la célula. Los resultados que se muestran a lo largo de este capítulo validarán a través de medidas a sol real las características avanzadas que presentan los concentradores Köhler, y que se demuestran en el capítulo 2 mediante simulaciones de rayos. Cada concentrador (FK, DFK y CFK) está diseñado y optimizado teniendo en cuenta condiciones de operación realistas. Su rendimiento se modela de forma exhaustiva mediante el trazado de rayos en combinación con modelos distribuidos para la célula. La tolerancia es un asunto crítico de cara al proceso de fabricación, y ha de ser máxima para obtener sistemas de producción en masa rentables. Concentradores con tolerancias limitadas generan bajadas significativas de eficiencia a nivel de array, causadas por el desajuste de corrientes entre los diferentes módulos (principalmente debido a errores de alineación en la fabricación). En este sentido, la sección 3.5 presenta dos métodos matemáticos que estiman estas pérdidas por desajuste a nivel de array mediante un análisis de sus curvas I-V, y por tanto siendo innecesarias las medidas a nivel de mono-módulo. El capítulo 3 también describe la caracterización indoor de los elementos ópticos que componen los concentradores, es decir, de las lentes de Fresnel que actúan como POE y de los secundarios free-form. El objetivo de esta caracterización es el de evaluar los adecuados perfiles de las superficies y las transmisiones ópticas de los diferentes elementos analizados, y así hacer que el rendimiento del módulo sea el esperado. Esta tesis la cierra el capítulo 4, en el que la integración Köhler se presenta como una buena alternativa para obtener distribuciones uniformes en aplicaciones de iluminación de estado sólido (iluminación con LED), siendo particularmente eficaz cuando se requiere adicionalmente una buena mezcla de colores. En este capítulo esto se muestra a través del ejemplo particular de un concentrador DFK, el cual se ha utilizado para aplicaciones CPV en los capítulos anteriores. Otra alternativa para lograr mezclas cromáticas apropiadas está basada en un método ya conocido (deflexiones anómalas), y también se ha utilizado aquí para diseñar una lente TIR aplanética delgada. Esta lente cumple la conservación de étendue, asegurando así que no hay bloqueo ni dilución de luz simultáneamente. Ambos enfoques presentan claras ventajas sobre las técnicas clásicas empleadas en iluminación para obtener distribuciones de iluminación uniforme: difusores y mezcla caleidoscópica mediante guías de luz. ABSTRACT Concentrating Photovoltaics (CPV) is one of the most promising ways of reducing the cost of energy collected from the sun. This is possible thanks to both, very high-efficiency solar cells and a large decrease in the size of cells, which are made of costly semiconductor materials. Both issues are closely linked since high efficiency values are only possible with expensive cell materials and technologies, implying a compulsory area reduction if cost-effectiveness is desired. The reduction in the cell size requires that light coming from the sun must be redirected (i.e. concentrated) towards the cell position. This is achieved by placing an optical concentrator system on top of the cell. These CPV concentrators consist of different optical elements manufactured on cheap materials in order to maintain low production costs. The optimal framework for the design of concentrators is nonimaging optics. Nonimaging optics was first developed in the 60s decade and has been largely developed ever since. The aim of nonimaging devices is the efficient transfer of light power between the source and the receiver (sun and cell respectively in the case of CPV), disregarding image formation. Nonimaging systems are usually simple, comprised of fewer surfaces than imaging systems and are more tolerant to manufacturing errors. This renders nonimaging optics a fundamental tool, not only in the design of photovoltaic concentrators, but also in the design of other applications as illumination, projection and wireless optical communications. Nonimaging optical concentrators are well suited for CPV applications because the goal is not the reproduction of an exact image of the sun (as imaging optics would provide), but simply the collection of its energy on the solar cell. Concentrators for CPV may present very different architectures and optical elements, resulting in a vast variety of possible designs. The first optical element that sunlight goes through is called the Primary Optical Element (POE) and is the most determinant element in order to define the shape and properties of the whole concentrator. The POE can be either refractive (lens) or reflective (mirror). This thesis focuses on CPV systems based on Fresnel lenses as POE, which are thin and inexpensive refractive lenses able to concentrate sunlight. Chapter 1 exposes a short introduction to geometrical and nonimaging optics, explaining their fundamentals and basic concepts. Then, the Köhler integration is presented in detail, explaining its principles, valid for both applications: CPV and illumination. An introduction to CPV fundamental concepts is also included in this chapter, analyzing the properties of multijunction solar cells and optical concentrators employed in CPV systems. The chapter is closed with a description of the existing technologies employed for the manufacture of optical elements composing the concentrator. Chapter 2 is mainly devoted to the design and development of the three advanced Fresnel Köhler optical concentrators presented in this thesis work: Fresnel-Köhler (FK), Dome-shaped Fresnel-Köhler (DFK) and Cavity Fresnel-Köhler (CFK). They all perform Köhler integration and comprise a Fresnel lens as their Primary Optical Element. Each one of these CPV concentrators presents its own characteristics, properties and its own design procedure. Their performances include all the key issues in a concentrator: high concentration factor, large tolerances, high optical efficiency, uniform irradiance on the cell surface and low production cost. The FK and DFK concentrators present a 4-fold configuration in order to perform the Köhler integration. This means that POE and SOE are divided into four symmetric sectors each one, working each POE sector with its corresponding SOE sector by pairs. The main difference between both concentrators is that the POE of the FK is a flat Fresnel lens, while a dome-shaped (curved) Fresnel lens performs as the DFK’s POE. The CFK concentrator includes an integrated external confinement cavity, which is an optical element able to recover rays reflected by the cell surface in order to be re-absorbed by the cell. It increases the light absorption, entailing an increase in the efficiency of the module. Additionally, an alternative design method for faceted elements will also be explained, especially suitable for dome-shaped lenses as the POE of the DFK. Chapter 3 focuses on the characterization and experimental measurements of the optical concentrators presented in Chapter 2, describing their procedures. These procedures are in general applicable to any Fresnel-based concentrator as well and include three main types of experimental measurements: electrical efficiency, acceptance angle and irradiance uniformity at the solar cell plane. The results shown along this chapter will validate through outdoor measurements under real sun operation the advanced characteristics presented by the Köhler concentrators, which are demonstrated in Chapter 2 through raytrace simulation: high optical efficiency, large acceptance angle, insensitivity to manufacturing tolerances and very good irradiance uniformity on the cell surface. Each concentrator (FK, DFK and CFK) is designed and optimized looking at realistic performance characteristics. Their performances are modeled exhaustively using ray tracing combined with cell modeling, taking into account the major relevant factors. The tolerance is a critical issue when coming to the manufacturing process in order to obtain cost-effective mass-production systems. Concentrators with tight tolerances result in significant efficiency drops at array level caused by current mismatch among different modules (mainly due to manufacturing alignment errors). In this sense, Section 3.5 presents two mathematical methods that estimate these mismatch losses for a given array just by analyzing its full-array I-V curve, hence being unnecessary any single mono-module measurement. Chapter 3 also describes the indoor characterization of the optical elements composing the concentrators, i.e. the Fresnel lenses acting as POEs and the free-form SOEs. The aim of this characterization is to assess the proper surface profiles and optical transmissions of the different elements analyzed, so they will allow for the expected module performance. This thesis is closed by Chapter 4, in which Köhler integration is presented as a good approach to obtain uniform distributions in Solid State Lighting applications (i.e. illumination with LEDs), being particularly effective when dealing with color mixing requirements. This chapter shows it through the particular example of a DFK concentrator, which has been used for CPV applications in the previous chapters. An alternative known method for color mixing purposes (anomalous deflections) has also been used to design a thin aplanatic TIR lens. This lens fulfills conservation of étendue, thus ensuring no light blocking and no light dilution at the same time. Both approaches present clear advantages over the classical techniques employed in lighting to obtain uniform illumination distributions: diffusers and kaleidoscopic lightpipe mixing.
Resumo:
La Tesis, formalmente, es parte de la que consta desde 1.975 en la biblioteca de la Escuela con la signatura 20024. Manteniendo el mismo título, estudia la evolución de la teoría de la restamración y del análisis de los centros históricos a través de la bibliografía publicada en los últimos veinte años y, de algunas actuaciones realizadas en Sevilla durante el mismo período. El resultado está presentado, siguiendo el orden del índice General, en cinco volúmenes: I resumen, II El desarrollo general del tema, III Apéndices, IV bibliografía publicada en los últimos veinte años y, V glosario de términos. Para identificar los orígenes y antecedentes de la teoría de la restauración arquitectónica y de su evolución, el estudio se encuentra desarrollado en cuatro capítulos: Una visión general; La restauración en España en el siglo XX hasta 1.976; Los últimos veinte años 1975 - 1.996 y, El estudio de los centros históricos. En el primero, se perfila el origen, la evolución y el estado actual de la cuestión dentro del ámbito internacional. Al respecto, se destacan las relaciones entre los hechos y las opiniones en Europa y en América. Las consecuencias de la revolución francesa, de la revolución industrial, de la segunda guerra mundial y del movimiento moderno sobre el patrimonio ya construido a través de los cambios en el marco legal; de la opinión de los más destacados profesionales que se han pronimciado sobre el tema, entre otros: Vitet, Viollet le Duc, Ruskin, Morris, Boito, Riegl, Giovannoni, Brandi. Paralelamente, también se hace referencia a la formación del arquitecto y a la participación de otras disciplinas en la restam-ación del patrimonio cultiual construido. En el segundo capítulo, se estudia el proceso de adscripción de los especialistas españoles a las corrientes internacionales de la restauración y la forma como inició la "restauración perceptiva" en los escritos de los "restauradores" que habían asumido el pensamiento de Viollet le Duc, representados por Lampérez y de los "antirrestauradores" que defendían la postura de Ruskin. La tercera vía sugerida por Boito, debido a su distanciamiento razonado de los dos anteriores, no se la encuentra identificada de manera específica en ningún autor español de esta época pero sí a través de la adopción generalizada de la casuística, del "caso por caso". Durante la República, "la elaboración teórica perderá el carácter de debate enconado que había caracterizado el desarrollo de decenios anteriores lo cual, unido a que la escasa diuación del período impide la formación de una tradición teórica, hace que las contribuciones no sean cuantiosas" Posteriormente, cuando el trabajo teórico de Torres Balbás puesto de manifiesto en centenares de artículos y en las obras de la Alhambra, permitía advertir su aporte al enriquecimiento de los principios internacionales de la restauración, sobrevino la guerra civil y con ella el inicio de un largo período de aletargamiento. Él, en 1.931 había asistido a la conferencia de Expertos para la protección realizada en Atenas para presentar su trabajo titulado: "Evolución del criterio respecto a la restauración de monimientos en la España actual". De esa reunión surgió la Carta Internacional que treinta y tres años después, serviría de referente a la Carta de Venecia, el documento de más amplia repercusión en el ámbito de la protección del patrimonio cultural edificado (arquitectura y centros históricos). La continuidad de los congresos de especialistas iniciada a fines del siglo pasado, se interrumpió en la década de los cuarenta. Debido a las consecuencias de la segunda guerra mundial se aprobó la "Convención de La Haya sobre protección de los Bienes Culturales en caso de conflicto armado". A partir de entonces, los moniunentos (la restaiuración) quedarán inmersos en luia nueva concepción, más general y amplia que, después de ser profundizada por Giannini, será adoptada en la Ley del Patrimonio Histórico Español, vigente desde 1.985. Los primeros pronimciamientos del movimiento de la arquitectm-a moderna y después las sendas Cartas de Atenas (1.931, 1.933) habían ubicado a la restaiuación en una situación perfectamente acotada dentro de la cual prolongaban su vida todas las otras corrientes: historicista, ecléctica, nacionalista, neoromántica, etc. En un lado se ubicaron los "modernos" y en el otro los "conservacionistas". Solamente a fines de los años setenta, demostradas las insuficiencias "modernas", ésta reiterativa compartiamentación tratará de ser superada. En el tercer capítulo se estudia detalladamente el aporte bibliográfico al tema y se evidencia la forma cómo, por exceso de doctrina y, coetáneamente, de una escasa teoría, terminada la dictadm-a en España, la situación del patrimonio arquitectónico seguía pareciéndose mucho a aquella descrita por Torres Balbás sesenta años antes: "un tremendo deterioro", debido a la especulación inmobiliaria y a la falta de vma política cultiu-al. El peso del régimen anterior parece haber sido tal que, pocas cosas escaparon a su control. Gracias al ambiente democrático, según la bibliografía revisada, la actitud de los especialistas en "lo nuevo" frente a "lo antiguo" también cambió. La norma, desde entonces ha perdido contundencia pero no su vigencia. Después del agotamiento terminológico al que llegó la restam-ación en los años setenta, Sola Morales introdujo, por primera vez en España ima palabra familiar entre los italianos pero novedosa en castellano: "intervención". A partir de este momento se adoptaron los principios del "restauro crítico" italiano y se provocó el cuestionamiento sobre la rehabilitación. En 1.983, por primera vez en español aparece resiunida y ordenada por Antón Capitel, una "Discusión crítica sobre las Teorías de la Restam^ación arquitectónica". Será parte constitutiva del libro publicado en 1.988 "Metamorfosis de monumentos". Emergía de un período esencialmente confuso pero de reflexión a la que se integraron los arqueólogos, historiadores, críticos, etc, debido particularmente a dos circunstancias: la infrautilización del patrimonio construido en los centros históricos y la consecuente "fiebre restauradora y rehabilitadora". En los últimos veinte años, según 524 registros publicados en España de un total de 799 que constan en el índice onomástico de la bibliografía estudiada, la notable influencia del pensamiento italiano sobre el tema de la tesis, solamente ha servido para matizar la tradición doctrinaria local, incapaz de extraer de su enorme tradición práctica, un componente teórico generador propio. Lo dicho se constata al analizar dos importantes obras ejecutadas en Sevilla durante el período de preparación del Quinto Centenario: la Cartuja y el Palacio de Manara. La primera no ha conseguido evidenciar su objetivo cultural. La restaiu"ación en el Palacio de Manara ha logrado recuperar la distribución tipológica de una importante casa señorial del centro histórico de Sevilla pero, contrariamente a lo que se proclama, tampoco tiene características para convertirse en un modelo a seguir. En el último capítulo se estudia la relación entre la restamación arquitectónica y el centro histórico. Si a éste se lo reconoce como una unidad homogénea, su protección intermediada por la intervención en sus monumentos tendría una apreciable limitación pues, esa arquitectura sin aquella connotación no podría garantizar la protección de todo el "conjunto". De esta circunstancia emerge el planeamiento como el único reciuso técnico capaz de garantizar la protección integral de la arqmtectura. Sin embargo, en España, el planeamiento de protección sigue dependiendo de la filosofía de la Ley del Suelo. No de la de Cultura. Debido a ello, todavía no es posible apreciar una postm-a de lo "antiguo" frente a lo "nuevo" en forma semejante a la conocida actitud de quienes están edificando lo "nuevo" hacia lo "antiguo". Esta es la situación que en el futuro deberá superar la "restauración" arquitectónica y la "protección" en los centros históricos para hacer propicia una reflexión teórica dinámica. Complementariamente, a manera de conclusión, entre otros puntos se ha verificado: En cantidad, en calidad y en diversidad, el contenido de los registros bibliográficos de las dos últimas décadas en España, son superiores a los de épocas anteriores pero, en cuanto a profundidad, las diferencias se hacen imperceptibles. No existe una teoría de la restam-ación tomada como un. conjunto de conocimientos especulativos independientes de su aplicación. Existen algunos componentes dispersos que, desde luego, constituyen un cuerpo doctrinal (en cuanto normativo) con indudables contenidos conceptuales que a la vez podrían constituir los fragmentos sueltos de una posible teoría. El fracaso en la delimitación del ámbito del restam-o y en la construcción de una teoría general sobre la restauración de monumentos en España no quita ni pone importancia a las intervenciones en el patrimonio edilicio con alto valor social agregado realizadas en los últimos veinte años. Eso sí, dificulta identificar una actitud profesional y académica generalizadas frente al patrimonio cultural edificado. No es posible afirmar que las intervenciones de los últimos años estén sometidas a una teoría general o específica ni tampoco decir que hay una "escuela regional" entendida como una tradición de haceres, actitudes o características resultantes commies en las restam-aciones del patrimonio arquitectónico. Obedecen al cumplimiento de la doctrina tradicional que bien podría convertirse en el pragmático empleo de un recurso artificio con connotación ética. En la restauración - a diferencia de la arquitectura de nueva planta- pareciera ser necesario y más fácil identificar la relación entre ética y estética; por lo tanto, habría una especie de obligación social de explicar la razón de ser de las obras tanto como la forma de ejecutarlas. Como conclusión, operativa y parte de ese corpus teórico -que no teoría propiamente dicha- se ha elaborado lui GLOSARIO de términos especializados sobre el tema.
Resumo:
El prestigio del que goza la arquitectura de Madrid se fraguó en aquellas dos décadas. Los maestros consagrados pusieron en pie sus obras de culminación y empezaron a recibir un bien merecido reconocimiento internacional.
Resumo:
Arquitectura y ciudad en la España de los sesenta
Resumo:
Esta tesis examina el papel de la red viaria y el planeamiento urbanístico en la localización de las actividades terciarias. A partir de los años sesenta se produce una modificación de los patrones de comportamiento espacial de las actividades productivas. En la raíz de estos cambios está los procesos de globalización e internacionalización de la economía y un importante aumento de la utilización vehículos privados. Todo ello da lugar a una preocupación entre los profesionales por la identificación de variables en esa organización espacial, y por la búsqueda de modelos que mejorasen las condiciones de competitividad en el entramado urbano, reclamado también la formulación de conceptos diferentes, capaces de entender los cambios territoriales de la reestructuración permanente en que viven las economías capitalistas avanzadas. En este marco, hay un aumento importante de las actividades terciarias o proceso de terciarización; que es el principio basilar para la suburbanización de este sector. Consiste, en buena medida, en unas necesidades de descentralización y dispersión de las actividades terciarias por todo el territorio, con demandas de nuevos espacios para todo tipo de actividades empresariales. Se va así generando un espacio urbano complejo, con nuevas actividades, distintas de la residencial, y con tipologías edificatorias diferentes: centros comerciales, hipermercados, zocos o edificios de empresas dedicadas a servicios avanzados y altamente cualificados. Adquiere, por tanto, un fuerte protagonismo los espacios periféricos de las grandes ciudades. En la transformación de este territorio interviene el planeamiento urbanístico porque prevé la ocupación del suelo y la forma de uso. Y también la carretera considerada clave en el desarrollo histórico de la ciudad. Consecuentemente, se impulsan una plétora de nuevas líneas de investigación y nuevas formas de aproximación al estudio de las relaciones entre las infraestructuras viarias y los usos del suelo. El interés del proyecto de investigación es, por todo ello, estudiar en que medida la localización del terciario depende del planeamiento urbano y de las variaciones en la red viaria. Es decir, la hipótesis de este trabajo se puede enunciar diciendo que: en la aparición del terciario inciden dos variables, el planeamiento urbanístico y la red viaria; lógicamente siendo consciente de la dificultad intrínseca de separar algún parámetro y sus relaciones de un sistema funcional urbano. Centrando este enfoque sobre el caso particular del corredor de la carretera de La Coruña (N-VI) situado en el oeste de la Comunidad de Madrid. Es un ámbito suburbano que comprende los términos municipales de Las Rozas y Majadahonda, un segmento del municipio de Madrid (abarca los barrios de Aravaca, el Plantío y Valdemarín, y una pequeña superficie de la Casa de Campo, Ciudad Universitaria y El Pardo), y la mitad septentrional del municipio de Pozuelo de Alarcón. La conclusión general a la que se ha llegado es que se trata de un fenómeno complejo, en el que se detecta que: A) La aprobación de un nuevo Plan Urbanístico no supone un cambio inmediato en la evolución cuantitativa de la implantación de actividades terciarias en edificio exclusivo en el área de estudio. B) Se evidencia una relación directa entre la implantación de una nueva infraestructura de transporte o modificación de algún elemento importante y el crecimiento de la localización de actividades terciarias. C) Resulta difícil verificar que cuando confluyen mejoras o nuevas construcciones en la red viaria y una estrategia en el planeamiento dirigida a la ordenación e intervención del espacio terciario, el número de edificios terciarios aumente. ABSTRACT This thesis examines the role of road networks and urban planning in the location of tertiary activities. Since the sixties there is a modification of spatial behavior patterns of production activities. At the root of these changes is the process of globalization and internationalization of the economy and a significant increase in private car use. This leads to a concern among professionals in the identification of variables in the spatial organization, and the search for models that would improve the competitive conditions in the urban framework, also called for the formulation of different concepts, able to understand the changes territorial restructuring that live permanently in the advanced capitalist economies. In this context, there is a significant increase in tertiary activities or process outsourcing, which is the beginning basilar to the suburbanization of the sector. It consists, in large part, on the Needs of decentralization and dispersal of tertiary activities throughout the territory, demands for new spaces for all types of business activities. It is thus generating a complex urban area, with new activities, other than residential and with different building typologies: shopping malls, hypermarkets, souks and buildings of companies engaged in advanced and highly skilled services. Thus takes strong role peripheral areas of big cities. In the transformation of this region is involved in providing for urban planning land use and how to use. And the road is considered key in the historical development of the city. Consequently, they are promoting a plethora of new research and new ways of approaching the study of the relationship between road infrastructure and land use. The interest of the research project is, for all that, consider to what extent depends on the location of tertiary urban planning and changes in the road network. That is, the hypothesis of this work can be stated by saying that: the emergence of two variables affecting tertiary, urban planning and road network, of course being aware of the inherent difficulty of separating any parameters and functional relationships of an urban. Approach focusing on the particular case of the road corridor from La Coruña (N-VI) located in the west of Madrid. It is a suburban area comprising the municipalities of Las Rozas and Majadahonda, a segment of the city of Madrid (covering the districts of Aravaca, the planting and Valdemarín, and a small area of the Casa de Campo, Ciudad Universitaria and El Pardo) , and the northern half of the town of Pozuelo de Alarcón. The general conclusion has been reached is that this is a complex phenomenon, which is detected: A) The approval of a new Urban Plan is not an immediate change in the quantitative evolution of the implementation of tertiary activities in exclusive building in the study area. B) It shows a direct relationship between the introduction of a new transport infrastructure or amendment to an important and growing element of the location of tertiary activities. C) It is difficult to verify that when improvements or new construction come together in the road network and planning a strategy aimed at the management and intervention of third space, the number of commercial buildings increases.
Resumo:
El estudio de la actuación del sector inmobiliario en el área metropolitana de Madrid desde los últimos años de la década de los cincuenta hasta finales de los sesenta, periodo donde se produjo un crecimiento del parque residencial madrileño sin precedentes que todavía hoy tiene una importante presencia en el conjunto de la edificación madrileña, y el análisis de su relación con el actual mapa de distribución de rentas, indica que la primera tuvo una influencia decisiva en la formación y consolidación del segundo, si bien esta influencia es mucho más clara en la periferia que en las áreas centrales de la ciudad. Por otro lado, se comprueba cómo, utilizando el conjunto de ingredientes formado por la valoración de los tejidos históricos, la ubicación de la vivienda social, el papel del planeamiento, el valor asociado a la centralidad, las estrategias comerciales del sector y los límites físicos, se puede construir de forma bastante fiel la imagen del espacio social del área metropolitana de Madrid que tenía el sector inmobiliario en los años sesenta.
Resumo:
La epistemología contemporánea de la fotografía aborda aspectos clave para valorar y entender el alcance del retrato, género fotográfico que ha sustituido al retrato pictórico como instrumento visual para representar la identidad física y caracterológica de los individuos. El arquitecto es retratado en sociedad, para poder asociar su imagen personal a su obra o viceversa. Durante los años sesenta, el protagonismo que la revista Nueva Forma otorga al retrato de los arquitectos en sus portadas contrasta con los criterios coetáneos de la revista Arquitectura, cuyo fotógrafo Paco Gómez, sin embargo, sí que realizó un notable número de retratos a arquitectos. Estos dos casos de estudio sirven en el presente texto como excusa y desencadenante para analizar ?a nivel disciplinar, formal y teórico? este género en el ámbito de la arquitectura española y, junto a otras referencias, articular una primera reflexión sobre su naturaleza y alcance crítico.
Resumo:
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG se enmarca entre las áreas de la teoría geométrica de la medida, la teoría de polinomios ortogonales y la teoría de operadores. La memoria aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas medidas que en la teoría de los polinomios ortogonales las representan. En particular se centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio definidas por un sistema de funciones iteradas (SFI). Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométrica de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teoría de Hutchinson [Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de la complejidad de este problema se plantea con las convoluciones infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema, lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y siguen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en 1962. El interés que ha despertado este problema así como la complejidad del mismo está demostrado por las numerosas publicaciones que abordan cuestiones relacionadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11]. En el primer capítulo comenzamos introduciendo con detalle las medidas autosemejante en el plano complejo y los sistemas de funciones iteradas, así como los conceptos de la teoría de la medida necesarios para describirlos. A continuación se introducen las herramientas necesarias de teoría de polinomios ortogonales, matrices infinitas y operadores que se van a usar. En el segundo y tercer capítulo trasladamos las propiedades geométricas de las medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamente. A partir de estos resultados se describen algoritmos para calcular estas matrices a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explícitas y algoritmos de aproximación para los momentos y matrices de momentos de medidas fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando técnicas de la teoría de operadores, se han extendido al plano complejo los resultados que G. Mantica [Ma00, Ma96] obtenía en el caso real. Este resultado es la base para definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a una medida fractal u obtener secciones finitas exactas de matrices Hessenberg asociadas a una suma de medidas. En el último capítulo, se consideran medidas, μ, más generales y se estudia el comportamiento asintótico de los autovalores de una matriz hermitiana de momentos y su impacto en las propiedades de la medida asociada. En el resultado central se demuestra que si los polinomios asociados son densos en L2(μ) entonces necesariamente el autovalor mínimo de las secciones finitas de la matriz de momentos de la medida tiende a cero. ABSTRACT The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg Matrices” is framed among the geometric measure theory, orthogonal polynomials and operator theory. The work studies measures with compact support on the complex plane from the point of view of the associated infinite moments and Hessenberg matrices representing them in the theory of orthogonal polynomials. More precisely, it concentrates on the study of the self-similar measures that are equilibrium measures in a iterated functions system. Self-similar sets have the geometric property of being decomposable in a union of similar pieces to the complete set. These pieces can overlap. If the overlapping is small, Hutchinson’s theory [Hut81] works well, however, when it has no restrictions, the theory does not hold. The overlapping problem consists in controlling the measure of the overlap. The complexity of this problem is exemplified in the infinite convolutions of Bernoulli’s distributions, that are an example of self-similar measures in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem, that far from being simple, has been studied during more than 75 years. The main cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this problem, together with its complexity, is demonstrated by the number of publications that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11]. In the first chapter, we will start with a detailed introduction to the self-similar measurements in the complex plane and to the iterated functions systems, also including the concepts of measure theory needed to describe them. Next, we introduce the necessary tools from orthogonal polynomials, infinite matrices and operators. In the second and third chapter we will translate the geometric properties of selfsimilar measures to the moments and Hessenberg matrices. From these results, we will describe algorithms to calculate these matrices from the corresponding iterated functions systems. To be precise, we obtain explicit formulas and approximation algorithms for the moments and moment matrices of fractal measures from a new fixed point theorem for matrices. Moreover, using techniques from operator theory, we extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96]. This result is the base to define a stable algorithm that approximates the Hessenberg matrix associated to a fractal measure and obtains exact finite sections of Hessenberg matrices associated to a sum of measurements. In the last chapter, we consider more general measures, μ, and study the asymptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with its impact on the properties of the associated measure. In the main result we demonstrate that, if the associated polynomials are dense in L2(μ), then necessarily follows that the minimum eigenvalue of the finite sections of the moments matrix goes to zero.
Resumo:
Las estructuras de forjados reticulares sobre pilares aislados han sido ampliamente utilizadas en el sur de Europa para edificios de viviendas y oficinas entre los a?nos setenta y noventa del siglo pasado. Estas estructuras, proyectadas y construidas con códigos actualmente obsoletos, podrían tener un comportamiento deficiente en caso de terremoto y es necesario evaluar su vulnerabilidad y la necesidad de ser reacondicionadas sísmicamente. Este artículo propone un modelo sencillo de transmisión de esfuerzos en uniones existentes entre forjado reticular y soporte exterior, solicitadas en la dirección normal al plano de fachada. La propuesta tiene en cuenta particularidades de estos forjados tales como la concentración de armaduras orientadas con los nervios y la presencia sistemática de crucetas de punzonamiento. El modelo global consiste en elementos tipo barra para los soportes y tipo placa para el forjado, con uniones entre ambos mediante rótulas a flexión y a torsión. La resistencia de las rótulas a flexión se determina a partir de la estimación de la porción de armadura longitudinal del forjado que transmite directamente momentos al pilar por flexión. La deformación de plastificación de las rótulas se estima con expresiones simples. Como ductilidad de las rótulas a flexión se adopta el valor propuesto por la norma FEMA 356, mientras que para las rótulas a torsión se adopta ductilidad infinita, lo cual es consistente con resultados experimentales previos. Se muestra que la respuesta frente a desplazamientos laterales impuestos monótonamente crecientes obtenida con el modelo propuesto se ajusta adecuadamente a resultados experimentales obtenidos en estudios anteriores, en cuanto a rigidez, resistencia y ductilidad.
Resumo:
En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.