791 resultados para CATALOGO RAZONADO
Resumo:
La Tesis, formalmente, es parte de la que consta desde 1.975 en la biblioteca de la Escuela con la signatura 20024. Manteniendo el mismo título, estudia la evolución de la teoría de la restamración y del análisis de los centros históricos a través de la bibliografía publicada en los últimos veinte años y, de algunas actuaciones realizadas en Sevilla durante el mismo período. El resultado está presentado, siguiendo el orden del índice General, en cinco volúmenes: I resumen, II El desarrollo general del tema, III Apéndices, IV bibliografía publicada en los últimos veinte años y, V glosario de términos. Para identificar los orígenes y antecedentes de la teoría de la restauración arquitectónica y de su evolución, el estudio se encuentra desarrollado en cuatro capítulos: Una visión general; La restauración en España en el siglo XX hasta 1.976; Los últimos veinte años 1975 - 1.996 y, El estudio de los centros históricos. En el primero, se perfila el origen, la evolución y el estado actual de la cuestión dentro del ámbito internacional. Al respecto, se destacan las relaciones entre los hechos y las opiniones en Europa y en América. Las consecuencias de la revolución francesa, de la revolución industrial, de la segunda guerra mundial y del movimiento moderno sobre el patrimonio ya construido a través de los cambios en el marco legal; de la opinión de los más destacados profesionales que se han pronimciado sobre el tema, entre otros: Vitet, Viollet le Duc, Ruskin, Morris, Boito, Riegl, Giovannoni, Brandi. Paralelamente, también se hace referencia a la formación del arquitecto y a la participación de otras disciplinas en la restam-ación del patrimonio cultiual construido. En el segundo capítulo, se estudia el proceso de adscripción de los especialistas españoles a las corrientes internacionales de la restauración y la forma como inició la "restauración perceptiva" en los escritos de los "restauradores" que habían asumido el pensamiento de Viollet le Duc, representados por Lampérez y de los "antirrestauradores" que defendían la postura de Ruskin. La tercera vía sugerida por Boito, debido a su distanciamiento razonado de los dos anteriores, no se la encuentra identificada de manera específica en ningún autor español de esta época pero sí a través de la adopción generalizada de la casuística, del "caso por caso". Durante la República, "la elaboración teórica perderá el carácter de debate enconado que había caracterizado el desarrollo de decenios anteriores lo cual, unido a que la escasa diuación del período impide la formación de una tradición teórica, hace que las contribuciones no sean cuantiosas" Posteriormente, cuando el trabajo teórico de Torres Balbás puesto de manifiesto en centenares de artículos y en las obras de la Alhambra, permitía advertir su aporte al enriquecimiento de los principios internacionales de la restauración, sobrevino la guerra civil y con ella el inicio de un largo período de aletargamiento. Él, en 1.931 había asistido a la conferencia de Expertos para la protección realizada en Atenas para presentar su trabajo titulado: "Evolución del criterio respecto a la restauración de monimientos en la España actual". De esa reunión surgió la Carta Internacional que treinta y tres años después, serviría de referente a la Carta de Venecia, el documento de más amplia repercusión en el ámbito de la protección del patrimonio cultural edificado (arquitectura y centros históricos). La continuidad de los congresos de especialistas iniciada a fines del siglo pasado, se interrumpió en la década de los cuarenta. Debido a las consecuencias de la segunda guerra mundial se aprobó la "Convención de La Haya sobre protección de los Bienes Culturales en caso de conflicto armado". A partir de entonces, los moniunentos (la restaiuración) quedarán inmersos en luia nueva concepción, más general y amplia que, después de ser profundizada por Giannini, será adoptada en la Ley del Patrimonio Histórico Español, vigente desde 1.985. Los primeros pronimciamientos del movimiento de la arquitectm-a moderna y después las sendas Cartas de Atenas (1.931, 1.933) habían ubicado a la restaiuación en una situación perfectamente acotada dentro de la cual prolongaban su vida todas las otras corrientes: historicista, ecléctica, nacionalista, neoromántica, etc. En un lado se ubicaron los "modernos" y en el otro los "conservacionistas". Solamente a fines de los años setenta, demostradas las insuficiencias "modernas", ésta reiterativa compartiamentación tratará de ser superada. En el tercer capítulo se estudia detalladamente el aporte bibliográfico al tema y se evidencia la forma cómo, por exceso de doctrina y, coetáneamente, de una escasa teoría, terminada la dictadm-a en España, la situación del patrimonio arquitectónico seguía pareciéndose mucho a aquella descrita por Torres Balbás sesenta años antes: "un tremendo deterioro", debido a la especulación inmobiliaria y a la falta de vma política cultiu-al. El peso del régimen anterior parece haber sido tal que, pocas cosas escaparon a su control. Gracias al ambiente democrático, según la bibliografía revisada, la actitud de los especialistas en "lo nuevo" frente a "lo antiguo" también cambió. La norma, desde entonces ha perdido contundencia pero no su vigencia. Después del agotamiento terminológico al que llegó la restam-ación en los años setenta, Sola Morales introdujo, por primera vez en España ima palabra familiar entre los italianos pero novedosa en castellano: "intervención". A partir de este momento se adoptaron los principios del "restauro crítico" italiano y se provocó el cuestionamiento sobre la rehabilitación. En 1.983, por primera vez en español aparece resiunida y ordenada por Antón Capitel, una "Discusión crítica sobre las Teorías de la Restam^ación arquitectónica". Será parte constitutiva del libro publicado en 1.988 "Metamorfosis de monumentos". Emergía de un período esencialmente confuso pero de reflexión a la que se integraron los arqueólogos, historiadores, críticos, etc, debido particularmente a dos circunstancias: la infrautilización del patrimonio construido en los centros históricos y la consecuente "fiebre restauradora y rehabilitadora". En los últimos veinte años, según 524 registros publicados en España de un total de 799 que constan en el índice onomástico de la bibliografía estudiada, la notable influencia del pensamiento italiano sobre el tema de la tesis, solamente ha servido para matizar la tradición doctrinaria local, incapaz de extraer de su enorme tradición práctica, un componente teórico generador propio. Lo dicho se constata al analizar dos importantes obras ejecutadas en Sevilla durante el período de preparación del Quinto Centenario: la Cartuja y el Palacio de Manara. La primera no ha conseguido evidenciar su objetivo cultural. La restaiu"ación en el Palacio de Manara ha logrado recuperar la distribución tipológica de una importante casa señorial del centro histórico de Sevilla pero, contrariamente a lo que se proclama, tampoco tiene características para convertirse en un modelo a seguir. En el último capítulo se estudia la relación entre la restamación arquitectónica y el centro histórico. Si a éste se lo reconoce como una unidad homogénea, su protección intermediada por la intervención en sus monumentos tendría una apreciable limitación pues, esa arquitectura sin aquella connotación no podría garantizar la protección de todo el "conjunto". De esta circunstancia emerge el planeamiento como el único reciuso técnico capaz de garantizar la protección integral de la arqmtectura. Sin embargo, en España, el planeamiento de protección sigue dependiendo de la filosofía de la Ley del Suelo. No de la de Cultura. Debido a ello, todavía no es posible apreciar una postm-a de lo "antiguo" frente a lo "nuevo" en forma semejante a la conocida actitud de quienes están edificando lo "nuevo" hacia lo "antiguo". Esta es la situación que en el futuro deberá superar la "restauración" arquitectónica y la "protección" en los centros históricos para hacer propicia una reflexión teórica dinámica. Complementariamente, a manera de conclusión, entre otros puntos se ha verificado: En cantidad, en calidad y en diversidad, el contenido de los registros bibliográficos de las dos últimas décadas en España, son superiores a los de épocas anteriores pero, en cuanto a profundidad, las diferencias se hacen imperceptibles. No existe una teoría de la restam-ación tomada como un. conjunto de conocimientos especulativos independientes de su aplicación. Existen algunos componentes dispersos que, desde luego, constituyen un cuerpo doctrinal (en cuanto normativo) con indudables contenidos conceptuales que a la vez podrían constituir los fragmentos sueltos de una posible teoría. El fracaso en la delimitación del ámbito del restam-o y en la construcción de una teoría general sobre la restauración de monumentos en España no quita ni pone importancia a las intervenciones en el patrimonio edilicio con alto valor social agregado realizadas en los últimos veinte años. Eso sí, dificulta identificar una actitud profesional y académica generalizadas frente al patrimonio cultural edificado. No es posible afirmar que las intervenciones de los últimos años estén sometidas a una teoría general o específica ni tampoco decir que hay una "escuela regional" entendida como una tradición de haceres, actitudes o características resultantes commies en las restam-aciones del patrimonio arquitectónico. Obedecen al cumplimiento de la doctrina tradicional que bien podría convertirse en el pragmático empleo de un recurso artificio con connotación ética. En la restauración - a diferencia de la arquitectura de nueva planta- pareciera ser necesario y más fácil identificar la relación entre ética y estética; por lo tanto, habría una especie de obligación social de explicar la razón de ser de las obras tanto como la forma de ejecutarlas. Como conclusión, operativa y parte de ese corpus teórico -que no teoría propiamente dicha- se ha elaborado lui GLOSARIO de términos especializados sobre el tema.
Resumo:
Las conferencias presentadas durante la Jornada Técnica sobre Avances en investigación aplicada en seguridad hidráulica de presas organizada por el Centro de Estudios Hidrográficos del CEDEX y la Universidad Politécnica de Madrid el mes de junio de 2013 versan sobre la mejora de la seguridad hidráulica de las presas, una materia de especial importancia en nuestro país (habida cuenta del elevado número de infraestructuras de regulación en servicio y de su antigüedad media) y constituye una tarea en la que tanto el CEDEX como la Universidad Politécnica de Madrid han trabajado activamente en los últimos años. El Departamento de presas de la ETSICCP, el Centro de Estudios Hidrográficos del CEDEX el Centro Internacional de Modelación Numérica (CIMNE), la empresa VEMSA y la compañía de ingeniería JESÚS GRANELL Ingenieros Consultores viene acometiendo un proyecto de investigación en materia de vertederos tipo laberinto. El objetivo principal de la investigación es la obtención de conocimientos y herramientas que permitan un diseño razonado de este tipo de estructuras hidráulicas. Además, se estudian otros efectos en su comportamiento, como son las condiciones hidráulicas de aproximación a la embocadura. La investigación se basa en el ensayo hidráulico en modelos físicos complementado por modelos numéricos mediante aplicaciones de última generación. Descripción del proceso de diseño y construcción del modelo.
Resumo:
Este libro sirve de texto para estudiantes de las Escuelas Técnicas, pero es de utilidad inmediata también para el profesional que busca comprender las raíces de los métodos de cálculo actuales y/o disponer de una herramienta que le permita resolver problemas inabordables con los métodos no computerizados (descripción de la editorial). Estas notas están dirigidas a personas que comiencen su aprendizaje en los métodos modernos de cálculo de estructuras. Se ha procurado mantener un tono elemental y sólo en muy contadas ocasiones se han avanzado temas que pueden requerir un tiempo de reflexión superior al que dedica a sus asignaturas un estudiante medio. En general, se ha pretendido desarrollar ideas, más que técnicas de computación, para que el lector se convenza de la potencia del modelo de razonamiento utilizado por los métodos proyectivos, cuya generalidad permite su aplicación a áreas muy distintas de la ciencia y de la técnica. No obstante, siguiendo la filosofía de la colección en la que se publica la obra, se ha dedicado también una parte sustancial del texto a la descripción de ciertos manejos informáticos y de un sencillo programa de ordenador que ha sido documentado cuidadosamente para que el principiante no encuentre inconveniente en desentrañar el procedimiento. Se espera con ello romper el sentimiento de misterio, mezcla de prevención y asombro, con que se ha intentado en ocasiones rodear un método de cálculo cuyas bases son absolutamente clásicas y cuya metodología entronca con la mejor tradición mecánica (extracto del prólogo).
Resumo:
El presente proyecto de fin de carrera esta desarrollado para el explicar el estado actual de las telecomunicaciones en España. Mercado que esta en constante evolución tecnológica y que se ha pasado inicialmente medir por la tasa de penetración de líneas vocales en un país a pasar de hablar de indicadores como la voz IP, descarga de contenidos, uso de los dispositivos ya que el contenido de lo que las redes transporta es donde puede estar el negocio para los operadores.El proyecto de fin de carrera a groso modo está distribuido en dos partes. La primera parte del proyecto, esta enfocado de una manera teórica haciendo una análisis del mercado actual de las telecomunicaciones. Para ello se realiza un primer estudio de los mercados de telecomunicaciones a nivel europeo y en España. Se analiza el sector de las TIC haciendo un repaso por los datos claves obtenidos en el último año y que han sido influenciados por la crisis mundial que vivimos en la actualidad. Detalles de la evolución de los servicios, infraestructuras de nueva generación desplegadas, inversiones y gastos de los operadores así como la cuota de servicio de los mismos. Regulaciones recientes e iniciativas como la Agenda Electrónica Digital para impulsar el crecimiento de la Sociedad de la Información. Investigación sobre la adopción y uso cotidiano de las nuevas tecnologías y dispositivos que hacen los ciudadanos que permiten mejoran nuestras vidas, la productividad de la economía y que será de devenir de las tendencias futuras hacia las que se moverá el mercado. Adicionalmente se plantea cuestiones sobre las tendencias de futuro de las redes de telecomunicaciones, analizando la previsión del volumen de datos creciente a transportar, los mecanismos para aumentar la capacidad, flexibilidad y eficiencia de las redes mediante técnicas como la virtualizacion (SDN).Debido a la experiencia profesional adquirida trabajando en un ISP como es Telefonica de España administrando sus redes y servicios a grandes empresas, profundizare con detalle técnico en estudiar y mostrar como estan montadas sus infraestructuras de red (Red IP Única, NGN, Multiservicio/UNO,…) , los diferentes tipos de accesos a las redes incluyendo los de nueva generación (FTTH) así como el catalogo de servicios ofertados (Macrolan, VPN-IP, Ibercom IP…), principalmente basados RPVs y sus facilidades asociadas sobre las mencionadas redes para las grandes empresas, PYMES y residencial que les permite la comunicación nacional o internacional entre las diferentes emplazamientos de sus oficinas con sus sedes centrales. La segunda parte de este proyecto se describe la implementación de un caso práctico real tanto en tema de configuración y montaje de equipamientos empleados (router,antena 3G…) de una oficina móvil basado en el servicio vpn-ip de Telefonica con acceso móvil 3G que se encuentra en el actual portfolio de sus productos que se explico en teóricamente en la primera parte del proyecto y que tiene conectividad con la red IP Única de la RPV del cliente Caja de Seguros Reunidos (CASER) la cual que nos permitirá conectarnos remotamente a un servidor de monitorización de su intranet ubicada en su sede central de Madrid que muestreara el trafico que se esta cursado por los interfaces del router de la oficina móvil. En la configuración del router se empleara diferentes métodos de conectividad como túneles GRE para la conectividad con los equipos de la red IP Única, LT2P y PPP para el acceso a la red móvil y se dotara de mayor seguridad al trafico cursado por la oficina Mobil empleando túneles IPSEC para la encriptación y cifrado de los datos para evitar que el trafico que va en claro por la red móvil si es interceptado por un tercero no sea capaz de analizarlo y descifrarlo y no se vea afectada la privacidad de la información que estamos transmitiendo.
Resumo:
Cada día nos acercamos más a un mundo globalizado, en que Internet está marcando el paso. Este proyecto fin de carrera es una foto del estado actual de la ciberdelincuencia. La ciberdelincuencia y el ciberdelito son conceptos que difieren depende de quién los defina, en este proyecto vemos algunas de estas definiciones y los diferentes tipos de ciberdelito. También intenta hacer un pronóstico razonado de lo que será el ciberdelito en los próximos años. El proyecto hace un recorrido por la jurisprudencia y cómo los estados intentan luchar contra ella y ajustar su legislación al momento actual. Destacando además la problemática de perseguir delitos que se producen en distintos países y en los que en muchos casos el delincuente se encuentra en un país diferente de la víctima. Hace un recorrido por quien o puede ser víctima del ciberdelito, viendo como están aumentando las víctimas potenciales gracias a la gran penetración de Internet debida a la proliferación de los dispositivos móviles. También cómo se están estableciendo mecanismos a nivel mundial de colaboración entre estados, tanto a nivel policial y judicial como de investigación y desarrollo. Los ciberdelincuentes aprovechan las características implícitas de Internet, buscando ocultarse, por ello se dedica un capítulo de este proyecto a las principales redes de ocultación, conocidas como redes oscuras. En esta parte se hace especial hincapié en el uso de la red TOR, principal medio de ocultación a nivel mundial, y cómo funciona técnicamente, ya que sus definiciones y protocolos son conocidos al ser software libre. Una vez conocido que ciberdelitos hay y como se producen, recorremos los distintos medios para la defensa y mitigación de los distintos ataques, esta parte del proyecto intenta desde un punto técnico acercarnos a lo que podemos hacer para defendernos, aunque algunos de los ataques son prácticamente imposibles de perseguir. Además de ver cómo defendernos de los posibles ataques dirigidos vemos cómo proteger las comunicaciones, a través principalmente, del cifrado de todo lo que enviamos a través de Internet. ABSTRACT. Every day we are moving to a global world, Internet is leading this change. This thesis end of grade is a picture of the current state of the cybercrime. Cybercrime is a concept that differ depending on who is defining it. This document shows some of these definitions and the different types of cybercrime. Also it tries to make a reasoned forecast about the cybercrime in the near future. The document run through the jurisprudence and how the states tries to adjust its legislation to the current moment. Emphasizing the problematic to prosecute crimes that are committed in different countries and crimes of which the cybercriminal is in a different country to the victim. In addition, the document define who may be a victim of cybercrime and how the number of potential victims are increasing because of the growth of the Internet penetration rate due to the proliferation of mobile devices. Also it shows how the worldwide mechanisms are being established to collaborate among states on police and judicial context, and also on the research and development. Cybercriminals exploit the characteristics of the Internet to hide from police, a chapter of this thesis talks about the nets known as darknets. This part emphasis on the use of the TOR network and how it works technically. TOR is the main net to communicate on the Internet anonymously. We can know how it works because it is free software and the specifications are public. Once that we know how the cybercrime work and how many types are, we study the different ways to defense and mitigate the effects of attacks. In this part of the thesis we approach what we can do to defend our systems with technical perspective, even if some of attacks are impossible to pursue. Also, we explain how to keep our communications private, mainly though the encrypting methods when we transmit data over the Internet.
Resumo:
De acuerdo con lo propuesto por el Ilmo. Sr. Director de la Escuela Especial de Ingenieros de Montes, esta Direccion General acuerda designar a Vd. la redaccion del siguiente proyecto: "Anteproyecto de restauracion del pantano de Yasa (margen izquierdo del rio Aragon) croquizando en el plano las zonas de mas urgente necesidad de correccion y con una relacion detallada a modo de catalogo de las fincas forestales y muy especialmente de las que tengan mas de 250 has: tanto publicas como particulares, con indicacion de si podrian adquirirse por comvenio, expropiacion o consorcio".
Resumo:
Hay un ejemplar encuadernado con: Deux sonates et La Coquette pour forte piano (XVIII/2815). Firma autógrafa de J.C. Salomon en la port.
Resumo:
Hay un ejemplar encuadernado con: Deux sonates et La Coquette pour forte piano (XVIII/2815). Firma autógrafa de J.C. Salomon en la port.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
Este tomo forma parte de una "Opera omnia" de Tomás de Aquino que consta de 17 v., publicada en Roma entre 1570-1571 por los herederos de Antonio Blado & Giovanni Gigliotti socios y algunos de Giulio Acconti , según el catalogo de la ICCU
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
‘Espacio, tiempo y arquitectura’, de Sigfried Giedion, tiene una historia apasionante. Aparecido originalmente en 1941, desde el principio fue todo un éxito editorial y con el tiempo se convirtió en un ‘clásico’ de la historiografía de la arquitectura moderna. Además, el autor se preocupó de actualizarlo periódicamente, de modo que su contenido siempre incluyó la información más reciente. Giedion murió en 1968, pero un par de años antes había preparado la que sería la quinta y última edición del libro. Curiosamente, esta versión final nunca se tradujo a las otras cuatro grandes lenguas occidentales (italiano, español, alemán y francés), porque se pensó que la edición anterior (la cuarta, de 1962) sería la definitiva. Por eso la nueva edición española de Reverté tiene un carácter singular, ya que es la única versión no inglesa que recoge todas las modificaciones y ampliaciones que Giedion incorporó a la última revisión de su libro.
Resumo:
Como punto de partida para el desarrollo de la Tesis, se mantiene la hipótesis de que es posible establecer métodos de evaluación global sobre el grado de utilidad de los sistemas constructivos correspondientes a los cerramientos de la edificación. Tales métodos habrían de posibilitar, de entre una serie finita de sistemas alternativos, cuáles de ellos son los objetivamente más adecuados para su selección en un entorno de decisión concreto, y habrían de permitir fundamentar la justificación objetiva de tal decisión. Paralelamente a esta hipótesis de carácter general, se planteó desde el inicio la necesidad de comprobación de una hipótesis de partida particular según la cual los sistemas constructivos basados en la utilización de componentes prefabricados, o procesos de puesta en obra con un alto grado de industrialización arrojarían valores de utilidad mayores que los sistemas tradicionales basados en la albañilería. Para la verificación de estas dos hipótesis de partida se ha procedido inicialmente a la selección de un conjunto coherente de doce sistemas de cerramientos de la edificación que pudiese servir como testigo de su diversidad potencial, para proceder a su valoración comparativa. El método de valoración propuesto ha entrado a considerar una serie de factores de diversa índole que no son reducibles a un único parámetro o magnitud que permitiese una valoración de tipo lineal sobre su idoneidad relativa, ni que permitiese establecer un grado de prelación entre los distintos sistemas constructivos alternativos de manera absoluta. Para resolver este tour de force o desafío metodológico se ha acudido a la aplicación de metodologías de valoración que nos permitiesen establecer de forma racional dicha comparativa. Nos referimos a una serie de metodologías provenientes en primera instancia de las ciencias exactas, que reciben la denominación de métodos de ayuda a la decisión multicriterio, y en concreto el denominado método ELECTRE. Inicialmente, se ha planteado la aplicación del método de análisis sobre doce sistemas constructivos seleccionados de tal forma que representasen de forma adecuada las tres categorías establecidas para caracterizar la totalidad de sistemas constructivos posibles; por peso, grado de prefabricación y grado de ventilación. Si bien la combinación de las tres categorías básicas anteriormente señaladas produce un total de 18 subcategorías conceptuales, tomamos finalmente doce subcategorías dado que consideramos que es un número operativo suficiente por extenso para el análisis propuesto y elimina tipos no relevantes. Aplicado el método propuesto, a estos doce sistemas constructivos “testigo”, se constata el mayor grado de utilidad de los sistemas prefabricados, pesados y no ventilados. Al hilo del análisis realizado en la Parte II de la Tesis sobre los doce sistemas constructivos “testigo”, se ha realizado un volcado de los sistemas constructivos incluidos en el Catalogo de Elementos Constructivos del CTE (versión 2010) sobre las dieciocho subcategorías definidas en dicha Parte II para caracterizar los sistemas constructivos “testigo”. Posteriormente, se ha procedido a una parametrización de la totalidad de sistemas constructivos para cerramientos de fachadas incluidos en este Catálogo. La parametrización sistemática realizada ha permitido establecer, mediante el cálculo del valor medio que adoptan los parámetros de los sistemas pertenecientes a una misma familia de las establecidas por el Catálogo, una caracterización comparativa del grado de utilidad de dichas familias, tanto en lo relativo a cada uno de los parámetros como en una valoración global de sus valores, de carácter indicativo. Una vez realizada una parametrización completa de la totalidad de sistemas constructivos incluidos en el Catálogo, se ha realizado una simulación de aplicación de la metodología de validación desarrollada en la Parte II de la presente Tesis, con el objeto de comprobar su adecuación al caso. En conclusión, el desarrollo de una herramienta de apoyo a la decisión multicriterio aplicada al Catálogo de Elementos constructivos del CTE se ha demostrado técnicamente viable y arroja resultados significativos. Se han diseñado dos sistemas constructivos mediante la aplicación de la herramienta desarrollada, uno de fachada no ventilada y otro de fachada ventilada. Comparados estos dos sistemas constructivos mejorados con otros sistemas constructivos analizados Se comprueba el alto grado de utilidad objetiva de los dos sistemas diseñados en relación con el resto. La realización de este ejercicio de diseño de un sistema constructivo específico, que responde a los requerimientos de un decisor concreto viene a demostrar, así pues, la utilidad del algoritmo propuesto en su aplicación a los procesos de diseño de los sistemas constructivos. La tesis incorpora dos innovaciones metodológicas y tres innovaciones instrumentales. ABSTRACT The starting point for the thesis is the hypothesis that it is possible to devise suitability degree evaluation methods of building enclosure systems. Such methods should allow optimizing appraisal, given a specific domain of decision, among a finite number of alternative systems, and provide objective justification of such decision. Along with the above mentioned general assumption, a second hypothesis whereby constructive systems based on the use of prefabricated components, or high industrialization degree work processes, would throw efficiency values higher than traditional masonry systems needed to be tested. In order to validate these two hypothesis a coherent set of twelve enclosure systems that could serve as a reference sample of their potential diversity was selected and a comparative evaluation was carried out. The valuation method proposed has considered several different factors that are neither reducible to a single parameter or magnitude that would allow a linear evaluation of their relative suitability nor allow to establishing an absolute priority ranking between different alternative constructive systems. In order to resolve this tour de force or methodological challenge, valuation methodologies that enable use establishing rational assessments were used. We are referring to a number of methodologies taken from the exact sciences field, usually known as aid methods for multi-criteria decision, in particular the so-called ELECTRE method. Even though the combination of the mentioned three basic categories result in eighteen conceptual sub categories, we are finally considering just twelve since we deem it adequately extended for the our intended purpose and eliminates non relevant instances. The method of analysis was initially applied to the set of twelve selected constructive systems is a way that they could represent adequately the three previously established categories set out to characterize all possible enclosure systems, namely weight, prefabrication degree and ventilation degree. Once the proposed method is applied to the sample systems, the higher efficiency of the prefabricated, heavy and not ventilated systems was confirmed. In line with the analysis in Part II of the thesis on the twelve chosen enclosure systems, it has done an uploading data of construction systems listed in the Catalogue of constructive elements of the CTE (version 2010) according the eighteen subcategories used in this part II to characterize the construction systems taken as sample. Subsequently, a parameterization of all enclosure facade systems included in this catalog has been undertaken. The systematic parameterization has allowed to set, by means of calculating the average values of the parameters of the systems belonging to the same family of those established by the Catalog, a comparative characterization of the efficiency degree of these families, both in relation to each parameter as to an overall evaluation of its values, in a indicative way. After the parameterization of all enclosure systems included in the Catalog, a simulation of validation methodology application developed in Part II of this Thesis has been made, in order to assess its consistency to the referred case. In conclusion, the development of a multi-criteria decision aid tool, applied to the CTE Catalog of constructive elements, has proved to be technically feasible and yields significant results. Two building systems through the application of the developed tool, a non-ventilated façade and a ventilated façade have been designed. Comparing these two improved construction systems with other building systems analyzed, we were able to assess the high degree of objective efficiency of the two systems designed in relation to the rest. The exercise of designing a specific enclosure system that meets the requirements of a particular decision-maker hence shows the suitability of the proposed algorithm applied to the process of enclosure systems design. This Thesis includes two methodological innovations and three instrumental innovations.
Resumo:
La historia de la arquitectura se ha medido - en parte - por la evolución de las modas, épocas y estilos de la arquitectura religiosa. En la aparición de las nuevas capillas interreligiosas universitarias de los años '50 de Norteamérica, la capilla del M.I.T., bautizada tras su inauguración como “Kresge Chapel” en honor al apellido de su benefactor, fue el máximo exponente como prototipo en esta época marcada por la aparición nuevas conciencias de posguerra. (II Guerra Mundial). La tesis centra su investigación en esta capilla, cómo nació en respuesta a la necesidad de compatibilizar la enseñanza reglada científico tecnológica con una formación religiosa y humanista, para el programa impuesto como ampliación del campus universitario del MIT en el barrio universitario de Cambridge, Boston, Massachussets, en torno a dos edificios principales a proyectar: capilla y auditorio. Desde el trabajo de investigación se aporta la información documental necesaria para saber cómo evolucionó desde sus primeros bocetos hasta su construcción. Su nacimiento como necesidad en la sociedad universitaria no fue nada espontáneo, quedando a medias entre la influencia escandinavo - alemana y la tradición americano-luterana de anteriores iglesias neoclásicas herederas del “Plan Akron”. La formación académica y profesional dirigida por su padre, Eliel Saarinen, suman junto a los viajes del arquitecto, una herencia “genética” para con este prototipo ajeno al emergente “estilo internacional” y ayudan a comprender la dimensión compleja de lo que es capaz de representar la capilla. La capilla es refugio emocional de la luz y es un punto de inflexión notable en la recuperación del tipo centrado renovado y evolucionado, que junto con el doble recurso lumínico - efectista, de la vertical para el altar y horizontal inferior, distribuido desde el perímetro ondulado en el interior, el ejemplo es muestra la promoción de una cierta sensibilidad para con las nuevas formas de la "religión" emergentes en la Norteamérica de los años 50. Desde el sincretismo como mecanismo y principal “modus operandi” proyectual, FE versus RAZÓN, aparecen como dualismo permanente en todas las fases del proyecto, desde un proceso de búsqueda de la armonía de ambos y para cada uno de ellos. Con el estudio del modelo prototípico del MIT, buscamos el "patrón" empleado por el arquitecto en su proyección de "nueva iglesia" adaptado a la diversidad cultural y religiosa y de las nuevas y diferentes sensibilidades humanistas para el proyecto. ----------------------------------------------------- SUMMARY--------------------------------------------------- The history of architecture is measured - in part - by the evolution of fashion, periods and styles of religious architecture. In the emergence of the new interfaith university chapel of the 1950s in North America, the chapel of MIT, named after its inauguration as "Kresge Chapel" in honor of its benefactor, was the best example of a prototype, in this time so marked by the emergence of new postwar consciousnesses. The thesis focuses its research on this chapel; how it came about in response to the need to reconcile formal scientific and technological education with religious and humanist training for the program imposed as an extension of the campus of MIT in the university district of Cambridge, Boston Massachusetts, around two main projected buildings : Chapel and auditorium. From research work has been obtained the documentary information necessary to know how it evolved from the first sketches to its construction. Its creation as a necessity of the university society was not at all spontaneous, being halfway between the Scandinavian influence - German and the American Lutheran tradition of neoclassical churches, the heirs to the "Akron Plan". The academic and professional training directed by his father, Eliel Saarinen, together with the travels of the architect, a "genetic" heritage with this external prototype for the emerging "international style", and help to understand the complex dimension of what the chapel is capable of representing. The chapel is an emotional refuge of light and is a remarkable turning point in the recovery of such focused renewed and evolved, along with the double lumen resource - gimmicky, vertical to the altar and lower horizontal, distributed from the undulating perimeter inside, the example is shown to promote a certain sensitivity to the new forms of "religion" but vague religious profile emerging in the America of the 50s. From the syncretism as a mechanism and main "modus operandi" of the project, FAITH versus REASON appears as permanent dualism in all phases of the project from a process of finding the harmony of both and for each of them. With the study of the prototypical model of MIT, we seek the "pattern" used by the architect in his projection of "new church" adapted to the cultural and religious diversity and new and different humanist sensitivities for the project. El desarrollo vierte la luz suficiente para entender los patrones de lo arquitectónico en la capilla, que hacen de ella, la comunión armónica y perfecta de los nombrados opuestos en el campus universitario del MIT. En el camino, además, la investigación arroja luz y orden sobre las fases del proyecto a través de la contribución, recogida, clasificación y orden de los datos, fechas y documentos gráficos, a día de hoy dispersos y confusamente publicados, debido a la no existencia de un estudio profundo y completo como el que pretende ser este trabajo, por ser una obra fundamental en la historia de la arquitectura moderna. El patrón final demostrará el artificio sincrético de cada una de las partes - cada uno en sí misma y cosidas todas - formando el "Ima Summis" de la capilla; resultado de la acción proyectual deducida de su serie genética descifrada. De esta forma, lo sincrético, aparece como el principal atributo del hecho construido, pasando de lo místico a lo científico, de lo intuitivo a lo razonado y siempre con el vehículo de su arquitectura para la interpretación de lo inefable al interior. En cuanto a la estructura de la tesis, se inicia el desarrollo a partir de una introducción en la que se declaran las intenciones y se describe el contexto de lo investigado en torno a la hipótesis principal anunciada en el subtítulo de la tesis. Frente a consideraciones previas de la capilla y de la propia investigación, se expone y explica la hipótesis principal, junto a otros objetivos secundarios. Para finalizar la introducción, se describe el método seguido como estrategia y se justifica la estructura de redacción del documento para la compresión de este trabajo hacia sus conclusiones. Es en el primer capítulo, el C1, donde se inicia el cuerpo central mediante la exposición historiográfica de la situación y contexto previo a la capilla como antecedentes. En un segundo capítulo, el C2, se aborda el estudio del desarrollo del proyecto y de la obra y construcción de la capilla, base documental necesaria. Para ello se inicia con la descripción del lugar, del encargo y del programa, para pasar a mostrar con detalle las distintas propuestas de cada una de las fases del proyecto. En definitiva, qué se proyecto, cómo evolucionó el proyecto y en qué fases transcurrió, para entre otras cuestiones, entender el cambio de estilo desde una fase influenciada por la capilla de Mies construida en el ITT de Chicago, (denominadas en este trabajo por esta influencia como modelos “miesianos”) y la fase reencuentro con el modus de hacer iniciado por su padre Eliel, a través de un modelo a medias de una herencia escandinavo - alemana y la tradición luterano - americana, (denominada en este trabajo como herencia o modelos “saariniana/os”). The development sheds enough light to understand the architectural patterns of the chapel, making it the perfect and harmonic communion named opposites on the campus of MIT. Along the way, furthermore, the research sheds light and order on the phases of the project through the contribution, collection, sorting and order of data, dates and graphic documents, today scattered and confusingly published, due to inexistence of a deep and comprehensive study like this work is meant to be, in the context of such a seminal work in the history of modern architecture. The final pattern will demonstrate the syncretic artifice of each of the parts - each in itself and all together - forming the "Ima Summis" of the chapel; the result of the project action deducted from its deciphered genetic series. Being the SYNCRETIC, the main attribute of the built matter, passing from the mystical to the scientific, from the intuitive to the reasoned and always with the vehicle of architecture as the representation of the ineffable. As for the structure of the thesis, the development starts from an introduction in which the intentions are declared and the context of that which is investigated is described, in terms of the main hypothesis announced in the subtitle of the thesis. Faced with previous considerations of the chapel and the research itself, the principal hypothesis is expressed and explained, along with other secondary objectives. To conclude the introduction, the method followed is described as a strategy and the structuring of the document is justified for the compression of this work towards its conclusions. It is in the first chapter of the thesis, the C1, where the main body of the work is initiated through the historiographical account of the situation and context prior to the chapel as antecedents. A second chapter, C2, addresses the study of the development of the project and of the work and construction of the chapel, based on the necessary documentary evidence. To this end, the analysis begins with the description of the place, the commission and the program, moving on to analyze in detail the various proposals of each phase. What is projected, how it evolved and through what phases passed the project to, among other questions, understand the change in style between the phase of influence of Mies through the projected chapel in the ITT of Chicago chapel (called in this work as "miesian" influences or models) and the reunion with the modus of making initiated by his father Eliel, through a model equally at once of Scandinavian-German heritage and of the American-Lutheran tradition, (referred to in this work as "saarinian" inheritance or models). Para el tercer capítulo, el C3, se llevan a estudio y análisis, los elementos más destacables en los que se prueban las particularidades llamadas “genéticas” en cada uno de las partes principales detectadas en la capilla. Desde ellas se rastrean las influencias - a veces sinergias - que ayudan a justificar y conformar una clasificación genética en torno a cuatro patrones principales, de los que poder discernir al final del capítulo, el “patrón matriz” de la propia capilla en base a la concurrencia de los órdenes arquitectónicos que los conforman. Una vez obtenida la información y orden necesario, se puede afrontar el punto álgido de esta tesis con el cuarto capítulo, el C4, en el que se justifica la capacidad sincrética de la capilla como respuesta a la hipótesis principal señalada en el subtítulo. Para ello se inicia el capítulo con el enfoque y contexto del término “sincretismo” y “sincrético”, aportando la justificación de sus usos para con esta investigación, antes de explicar que la capilla es sincrética por la suma de dos claves fundamentales. La clave primera, correspondiente a la capacidad interconfesional y aconfesional de la capilla, y su capacidad de trascender al interior desde ambas situaciones además de ser reconocible por el religioso y a la vez por el científico. Y la clave segunda, que corresponde a la suma de las distintas partes sincréticas, cada una en si mismas, capaz de sumar todas juntas, este edificio sincrético de los nombrados opuestos. Una vez discernido las claves de lo sincrético en la capilla y a pesar de su doble carácter SACRO Y PROFANO, una comparativa posiciona a la capilla como único entre los ejemplos interconfesionales construidos en los ´50, sin haberse repetido de igual manera y mismo resultado en el tiempo, ni en ninguna otra universidad o centro tecnológico. Así la exposición de este trabajo finaliza con el último capítulo, el C5, en el que desde esa comparativa, una serie de cuestiones unen y distancian a la del MIT y dan acierto a la apuesta inicial, concluyendo que la hipótesis y el patrón de la misma, es el patrón de lo sincrético que modela el ”modus operandi ” del arquitecto. Tras el desarrollo, la investigación cierra filas en torno a cuatro conclusiones para los cuatro capítulos principales; C2, C3, C4, C5. La capilla del MIT como modelo prototípico no se repite en el tiempo, ni en ninguna otra universidad y se posiciona como el mejor prototipo – hito de una nueva arquitectura religiosa universitaria. In the third chapter, C3, we study and analyze the most notable elements in which are found those particularities referred to as "genetic" in each of the principal parts, (see above C3.1.1... - C3.1.8), where these influences - sometimes synergies - are traced, helping to justify and form a classification based on four of those principals (see above C3.2), from which, at the end of this chapter may be discerned a matrix pattern, that of the chapel itself (see above. C3.3.), based on concurrent architectural orders. Once the necessary information and order is obtained, we come to the decisive point in the fourth chapter, C4, where the syncretic capacity of the chapel in response to the main hypothesis indicated in the subtitle of the thesis is justified. For this, the chapter beings with the focus and context of the terms "syncretism" and "syncretic", providing justification for their use for this research, going on to assert that the chapel is syncretic from the sum of two fundamental aspects: the first corresponds to the interfaith and non-denominational capacities of the chapel, its ability to transcend both situations and be recognizable by both the religious and the scientific. The second corresponds to the sum of the different syncretic parts, each in themselves, capable of making together a syncretic building with the opposite. Once discerned the keys to the syncretic and epic in the chapel and despite its dual character both SACRED and PROFANE, a comparatison positions the chapel as being unique among interfaith examples built in the 1950s, without being repeated in the same way and with the same result over time or in any other university or centre of technology. So, the exhibition of this work ends with the last chapter, C5, in which from that comparison a number of issues come together and to distance themselves from MIT and bear out the initial proposition, concluding that the hypothesis and its pattern, the pattern of the syncretic which models the "modus operandi" of the architect to contain the ineffable. The research closes ranks around four conclusions for the four main chapters; C2, C3, C4, and C5 The chapel of MIT as a prototypical model is not repeated in time, or any other university and is positioned as the best prototype - a landmark of a new universitary religious architecture.
Resumo:
Durante los días 23 a 25 de octubre de 2013 se celebraron en Alicante y Denia, las I Jornadas Internacionales de Arqueología: Al-Andalus. Califato y taifas (ss. X-XI), organizadas por el Museo Arqueológico de Alicante-MARQ, con la colaboración del Ayuntamiento de Denia y de la Universidad de Alicante. Esta iniciativa de Rafael Azuar reunió un amplio grupo de investigadores veteranos y noveles en torno a la problemática de uno de los periodos más señeros de la historia de al-Andalus: el Califato y las Taifas. La convocatoria nació al albur de la próxima conmemoración del milenario de la conquista de las Baleares y la isla de Cerdeña por Muyahid, señor de la Taifa de Denia, en el año 2015; se pretendía de esta forma prestar atención al contexto en el que se produjo la expansión de Denia por el Mediterráneo, al tiempo que se actualizaban las nuevas perspectivas arqueológicas sobre el periodo.