40 resultados para Container
Resumo:
Debido al gran incremento de datos digitales que ha tenido lugar en los últimos años, ha surgido un nuevo paradigma de computación paralela para el procesamiento eficiente de grandes volúmenes de datos. Muchos de los sistemas basados en este paradigma, también llamados sistemas de computación intensiva de datos, siguen el modelo de programación de Google MapReduce. La principal ventaja de los sistemas MapReduce es que se basan en la idea de enviar la computación donde residen los datos, tratando de proporcionar escalabilidad y eficiencia. En escenarios libres de fallo, estos sistemas generalmente logran buenos resultados. Sin embargo, la mayoría de escenarios donde se utilizan, se caracterizan por la existencia de fallos. Por tanto, estas plataformas suelen incorporar características de tolerancia a fallos y fiabilidad. Por otro lado, es reconocido que las mejoras en confiabilidad vienen asociadas a costes adicionales en recursos. Esto es razonable y los proveedores que ofrecen este tipo de infraestructuras son conscientes de ello. No obstante, no todos los enfoques proporcionan la misma solución de compromiso entre las capacidades de tolerancia a fallo (o de manera general, las capacidades de fiabilidad) y su coste. Esta tesis ha tratado la problemática de la coexistencia entre fiabilidad y eficiencia de los recursos en los sistemas basados en el paradigma MapReduce, a través de metodologías que introducen el mínimo coste, garantizando un nivel adecuado de fiabilidad. Para lograr esto, se ha propuesto: (i) la formalización de una abstracción de detección de fallos; (ii) una solución alternativa a los puntos únicos de fallo de estas plataformas, y, finalmente, (iii) un nuevo sistema de asignación de recursos basado en retroalimentación a nivel de contenedores. Estas contribuciones genéricas han sido evaluadas tomando como referencia la arquitectura Hadoop YARN, que, hoy en día, es la plataforma de referencia en la comunidad de los sistemas de computación intensiva de datos. En la tesis se demuestra cómo todas las contribuciones de la misma superan a Hadoop YARN tanto en fiabilidad como en eficiencia de los recursos utilizados. ABSTRACT Due to the increase of huge data volumes, a new parallel computing paradigm to process big data in an efficient way has arisen. Many of these systems, called dataintensive computing systems, follow the Google MapReduce programming model. The main advantage of these systems is based on the idea of sending the computation where the data resides, trying to provide scalability and efficiency. In failure-free scenarios, these frameworks usually achieve good results. However, these ones are not realistic scenarios. Consequently, these frameworks exhibit some fault tolerance and dependability techniques as built-in features. On the other hand, dependability improvements are known to imply additional resource costs. This is reasonable and providers offering these infrastructures are aware of this. Nevertheless, not all the approaches provide the same tradeoff between fault tolerant capabilities (or more generally, reliability capabilities) and cost. In this thesis, we have addressed the coexistence between reliability and resource efficiency in MapReduce-based systems, looking for methodologies that introduce the minimal cost and guarantee an appropriate level of reliability. In order to achieve this, we have proposed: (i) a formalization of a failure detector abstraction; (ii) an alternative solution to single points of failure of these frameworks, and finally (iii) a novel feedback-based resource allocation system at the container level. Finally, our generic contributions have been instantiated for the Hadoop YARN architecture, which is the state-of-the-art framework in the data-intensive computing systems community nowadays. The thesis demonstrates how all our approaches outperform Hadoop YARN in terms of reliability and resource efficiency.
Resumo:
Los polímeros compostables suponen en torno al 30% de los bioplásticos destinados a envasado, siendo a su vez esta aplicación el principal destino de la producción de este tipo de materiales que, en el año 2013, superó 1,6 millones de toneladas. La presente tesis aborda la biodegradación de los residuos de envases domésticos compostables en medio aerobio para dos tipos de formato y materiales, envase rígido de PLA (Clase I) y dos tipos de bolsas de PBAT+PLA (Clases II y III). Sobre esta materia se han realizado diversos estudios en escala de laboratorio pero para otro tipo de envases y biopolímeros y bajo condiciones controladas del compost con alguna proyección particularizada en plantas. La presente tesis da un paso más e investiga el comportamiento real de los envases plásticos compostables en la práctica del compostaje en tecnologías de pila y túnel, tanto a escala piloto como industrial, dentro del procedimiento y con las condiciones ambientales de instalaciones concretas. Para ello, con el método seguido, se han analizado los requisitos básicos que debe cumplir un envase compostable, según la norma UNE – EN 13432, evaluando el porcentaje de biodegradación de los envases objeto de estudio, en función de la pérdida de peso seco tras el proceso de compostaje, y la calidad del compost obtenido, mediante análisis físico-químico y de fitotoxicidad para comprobar que los materiales de estudio no aportan toxicidad. En cuanto a los niveles de biodegrabilidad, los resultados permiten concluir que los envases de Clase I se compostan adecuadamente en ambas tecnologías y que no requieren de unas condiciones de proceso muy exigentes para alcanzar niveles de biodegradación del 100%. En relación a los envases de Clase II, se puede asumir que se trata de un material que se composta adecuadamente en pila y túnel industrial pero que requiere de condiciones exigentes para alcanzar niveles de biodegradación del 100% al afectarle de forma clara la ubicación de las muestras en la masa a compostar, especialmente en el caso de la tecnología de túnel. Mientras el 90% de las muestras alcanza el 100% de biodegradación en pila industrial, tan sólo el 50% lo consigue en la tecnología de túnel a la misma escala. En cuanto a los envases de Clase III, se puede afirmar que es un material que se composta adecuadamente en túnel industrial pero que requiere de condiciones de cierta exigencia para alcanzar niveles de biodegradación del 100% al poderle afectar la ubicación de las muestras en la masa a compostar. El 75% de las muestras ensayadas en túnel a escala industrial alcanzan el 100% de biodegradación y, aunque no se ha ensayado este tipo de envase en la tecnología de pila al no disponer de muestras, cabe pensar que los resultados de biodegrabilidad que hubiera podido alcanzar habrían sido, como mínimo, los obtenidos para los envases de Clase II, al tratarse de materiales muy similares en composición. Por último, se concluye que la tecnología de pila es más adecuada para conseguir niveles de biodegradación superiores en los envases tipo bolsa de PBAT+PLA. Los resultados obtenidos permiten también sacar en conclusión que, en el diseño de instalaciones de compostaje para el tratamiento de la fracción orgánica recogida selectivamente, sería conveniente realizar una recirculación del rechazo del afino del material compostado para aumentar la probabilidad de someter este tipo de materiales a las condiciones ambientales adecuadas. Si además se realiza un triturado del residuo a la entrada del proceso, también se aumentaría la superficie específica a entrar en contacto con la masa de materia orgánica y por tanto se favorecerían las condiciones de biodegradación. En cuanto a la calidad del compost obtenido en los ensayos, los resultados de los análisis físico – químicos y de fitotoxicidad revelan que los niveles de concentración de microorganismo patógenos y de metales pesados superan, en la práctica totalidad de las muestras, los niveles máximos permitidos en la legislación vigente aplicable a productos fertilizantes elaborados con residuos. Mediante el análisis de la composición de los envases ensayados se constata que la causa de esta contaminación reside en la materia orgánica utilizada para compostar en los ensayos, procedente del residuo de origen doméstico de la denominada “fracción resto”. Esta conclusión confirma la necesidad de realizar una recogida selectiva de la fracción orgánica en origen, existiendo estudios que evidencian la mejora de la calidad del residuo recogido en la denominada “fracción orgánica recogida selectivamente” (FORM). Compostable polymers are approximately 30% of bioplastics used for packaging, being this application, at same time, the main destination for the production of such materials exceeded 1.6 million tonnes in 2013. This thesis deals with the biodegradation of household packaging waste compostable in aerobic medium for two format types and materials, rigid container made of PLA (Class I) and two types of bags made of PBAT + PLA (Classes II and III). There are several studies developed about this issue at laboratory scale but for other kinds of packaging and biopolymers and under composting controlled conditions with some specifically plants projection. This thesis goes one step further and researches the real behaviour of compostable plastic packaging in the composting practice in pile and tunnel technologies, both at pilot and industrial scale, within the procedure and environmental conditions of concrete devices. Therefore, with a followed method, basic requirements fulfilment for compostable packaging have been analysed according to UNE-EN 13432 standard. It has been assessed the biodegradability percentage of the packaging studied, based on loss dry weight after the composting process, and the quality of the compost obtained, based on physical-chemical analysis to check no toxicity provided by the studied materials. Regarding biodegradability levels, results allow to conclude that Class I packaging are composted properly in both technologies and do not require high exigent process conditions for achieving 100% biodegradability levels. Related to Class II packaging, it can be assumed that it is a material that composts properly in pile and tunnel at industrial scale but requires exigent conditions for achieving 100% biodegradability levels for being clearly affected by sample location in the composting mass, especially in tunnel technology case. While 90% of the samples reach 100% of biodegradation in pile at industrial scale, only 50% achieve it in tunnel technology at the same scale. Regarding Class III packaging, it can be said that it is a material properly composted in tunnel at industrial scale but requires certain exigent conditions for reaching 100% biodegradation levels for being possibly affected by sample location in the composting mass. The 75% of the samples tested in tunnel at industrial scale reaches 100% biodegradation. Although this kind of packaging has not been tested on pile technology due to unavailability of samples, it is judged that biodegradability results that could be reached would have been, at least, the same obtained for Class II packaging, as they are very similar materials in composition. Finally, it is concluded that pile technology is more suitable for achieving highest biodegradation levels in bag packaging type of PBAT+PLA. Additionally, the obtained results conclude that, in the designing of composting devices for treatment of organic fraction selectively collected, it would be recommended a recirculation of the refining refuse of composted material in order to increase the probability of such materials to expose to proper environmental conditions. If the waste is grinded before entering the process, the specific surface in contact with organic material would also be increased and therefore biodegradation conditions would be more favourable. Regarding quality of the compost obtained in the tests, physical-chemical and phytotoxicity analysis results reveal that pathogen microorganism and heavy metals concentrations exceed, in most of the samples, the maximum allowed levels by current legislation for fertilizers obtained from wastes. Composition analysis of tested packaging verifies that the reason for this contamination is the organic material used for composting tests, comes from the household waste called “rest fraction”. This conclusion confirms the need of a selective collection of organic fraction in the origin, as existing studies show the quality improvement of the waste collected in the so-called “organic fraction selectively collected” (FORM).
Resumo:
La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.
Resumo:
Esta investigación analiza la capacidad del urbanismo de albergar sistemas emergentes de gestión urbana. El objetivo de esta tesis es describir estos procedimientos informales, realizando un exhaustivo recorrido a través de diversas experiencias de alteración del modo de gestión urbana al uso, para dar lugar a una sistematización de estos procesos que siente las bases para plantear nuevas formas de gestión urbana. Es decir, el fin no es tanto hacer una clasificación de las intervenciones más relevantes en materia urbana, sino descubrir su estructura, un orden para el desorden, una taxonomía en esas actuaciones que permita reformular las formas actuales de gestión de lo público. Se ha tratado de dibujar un mapa de oportunidades posibles en torno a la gestión del espacio urbano. A través de los procesos estudiados, esta investigación analiza los éxitos y fracasos obtenidos en los últimos cinco años de gestión alternativa de espacios vacantes, buscando extraer formulas susceptibles de incorporarse al modo actual de hacer ciudad. Este estudio pretende abordar un aspecto parcial, aunque fundamental del urbanismo, dando prioridad a lo público, sin la intención de negar el resto de formas del espacio urbano. Se concentra en los parámetros relativos a la interpretación de lo público: desatiende al conjunto urbano para descifrar ese fragmento. Así, el interés principal de esta tesis se concentra en la producción del espacio público. Al entender este ámbito como no exclusivo del urbanismo, otras actividades como el arte, la filosofía, la antropología o la sociología han aportado aspectos fundamentales dentro de esta investigación. De esta forma se ofrece un acercamiento poliédrico desde puntos de vista interdisciplinares, tratando de descubrir con rigor las posibilidades contrastadas de mejora del espacio urbano producido por los procesos emergentes de gestión informal de lo público. Mediante un metodología creada ex profeso (una estructura definida por tres líneas estratégicas: Gobernanza, Complejidad y Cohesión Social, que se desglosan en seis conceptos clave cada una) esta investigación analiza los aspectos relativos a la producción informal del espacio público de los sistemas emergentes. En relación con la Gobernanza, una parte de esta tesis se dedica al estudio de la informalidad, la transversalidad, la apropiación, la participación, la transparencia y las redes. La Complejidad se ha estudiado en su relación con la diversidad urbana, el uso sostenible del espacio público, la reactivación, la producción de espacio público, la ecología urbana y los procesos creativos. Para Cohesión Social se ha investigado la innovación en equipamientos, los procesos bottom-up, el rizoma, la identidad, los sistemas líquidos y el empoderamiento. Esta máquina para analizar se prueba en tres soportes urbanos: la escena urbana, los edificios-contenedores y los vacíos urbanos. Se han estudiado cinco situaciones urbanas en la ciudad de Madrid, seleccionados por ser las prácticas urbanas más relevantes de los últimos cinco años. Si bien este análisis nace de estos cincos casos, el modelo podría ser útil para otras investigaciones interesadas en los aspectos informales de la gestión urbana. Esta investigación se propone reclamar otras dimensiones más innovadoras que, si bien se escapan a los modos habituales de trabajar del urbanista, se revelan intensamente en los modos actuales de reclamar y producir espacio urbano. Se ha pretendido descubrir el espacio urbano como contenedor situacional del sentido público, potencial multiplicador de efectos funcionales como la gestión, la temporalidad, la participación, la rehabilitación, la multiplicidad de usos, la corrección del compacidad; efectos perceptuales y estéticos en la escena urbana; efectos políticos, de formación, de adquisición de poder; efectos sociales como la generación de nuevas redes, la creación de identidades. Se pretende que esta investigación arroje conclusiones que puedan tener aplicabilidad en la gestión y planificación del espacio público de ciudades y entornos urbanos inmersos a procesos semejantes. ABSTRACT This research examines the ability of urban planning to accommodate emerging urban management systems. The purpose of this thesis is to describe such informal procedures, by carrying out an exhaustive review across the different approaches to urban management, in order to systematize them as the basis for new ways of urban management. The aim is not, that is, to classify relevant urban interventions, but to recognize the intrinsic structure, an order for disorder, a taxonomy in those proceedings that could help reformulating existing forms of public management. The attempt has been to draw a map of possible opportunities around the management of urban space. Through the processes that have been the object of study, this research analyzes the successes and failures over the last five years of alternative management of vacant spaces, seeking to extract formulas that are likely to join the current way of making city. The focus of this urban study is the interpretation of public concepts, considered as key dimensions, not obliterating the other forms of urban space, but trying to make an in-depth analysis of this fragment within the global urban concept. Other activities intrinsically associated to public space generation, such as art, philosophy, anthropology or even sociology, are also contributing to this research. This interdisciplinary approach tries to enrich the research by recognizing the informal elements participating in emergent public management processes. The ex profeso devised methodology is structured by three main strategies: governance, complexity and Social Cohesiveness. Governance considers elements associated to informality, transversal dynamics, appropriation, participation, transparency and networking. Complexity encompasses elements of urban diversity, sustainable usage of public space, reactivation, urban space production, urban ecology and creative processes. Social Cohesiveness includes elements for equipment innovation, bottom-up processes, rhizome, identity, liquid systems and empowerment. This analyzing machine is tested on three urban scenarios: the urban scene, container buildings and empty spaces. Five relevant urban situations in Madrid have been selected, all of them developed in last five years, thus establishing the basis for other experiences of informal urban management. The result of the research, confirms the relevance of additional dimensions to traditional approaches for urban development. The urban space is recognized as a situational container of public sense and a potential multiplier of functional effects such as public management, temporality, participation, rehabilitation, multiplicity of uses, correction of compactness; perceptual and esthetic effects on the urban scene; politic effects, training, empowerment; social effects as generating new networks and identity creation. To sum up, the purpose of this thesis is to share the conclusions obtained by evaluating reference scenarios that could be applied in similar processes for cities and urban environment management and planning.
Resumo:
Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.
Resumo:
El cuerpo, como conjunto organizado de partes que configuran el organismo, es una entidad metamórfica. El ser humano procura dar continuidad a esta condición mutante que le caracteriza, mediante diversas acciones de carácter arquitectónico. A partir de la observación de los procesos naturales, el individuo se autodefine artificialmente, transformando su realidad innata en una versión distorsionada de sí misma. Por adición, sustracción o modificación, la piel como última capa natural, se convierte en lienzo de manipulación plástica primordial para asegurar la existencia y controlar la identidad, individual y colectiva. La evolución experimental de estas intervenciones primarias, permite suplantar la piel natural por una reinterpretación construida; una piel exenta y desmontable con la que proyectar un yo diferente provisionalmente. El uso constante de esta prótesis removible e intercambiable, provoca que el cuerpo desnudo se transforme en un cuerpo vestido, en un entorno social en el que la desnudez deja de ser el estado natural del ser humano. La piel artificial se construye mediante una gran diversidad de procesos proyectuales, siendo la transformación de la superficie bidimensional en envolvente tridimensional el más utilizado a lo largo de la existencia de la vestimenta. El plano, concebido como principal formato de revestimiento humano, se adapta a su irregularidad topográfica por modelado, perforación, fragmentación, trazado, parametrización e interacción, transformándose en una envolvente cada vez más compleja y perfecta. Su diseño implica la consideración de variables como la dimensión y la escala, la función y la forma, la estructura, el material y la construcción, la técnica y los instrumentos. La vestimenta es una arquitectura habitacional individual, un límite corporal que relaciona el espacio entre el exterior e el interior, lo ajeno y lo propio, el tú y el yo; un filtro concreto y abstracto simultáneamente; una interfaz en donde el vestido es el continente y el cuerpo su contenido. ABSTRACT The body as a whole, organized of parts that make up the organism, is a metamorphic entity. The human being seeks to give continuity to this mutant condition which characterizes him through various actions of architectural character. From the observation of the natural processes, the individual defines itself artificially, transforming its innate reality into a distorted version of itself. By addition, subtraction or modification, the skin, as the last natural layer, becomes canvas of primary plastic handling in order to ensure the existence and to control the identity, both individual and collective. The experimental evolution of these primary interventions allows to impersonate the natural skin by a constructed reinterpretation; a free and detachable skin together with which to be able to project, temporarily, a different “I”. The constant use of this removable and interchangeable prosthesis causes the naked body to be transformed into a dressed body, in a social setting in which the nudity is no longer the natural state of the human being. The artificial skin is constructed by a variety of projectual processes; the most used throughout the existence of the outfit is transforming the two-dimensional surface into a three-dimensional covering. The plan, conceived as the main human lining format, adapts to its topographic irregularity by modeling, drilling, fragmentation, outline, parameters and interaction, thus becoming a type of increasingly more complex and perfect covering. Its design implies the consideration of different variables such as the dimension and the scale, the function and the shape, the structure, the material and the construction, the technique and the instruments. The clothing is an individual residential architecture, a body boundary which relates the space between outside and inside, between the external and the self, between “you” and “I”; at the same time a specific and abstract filter; an interface where the dress is the container and the body its content.
Resumo:
El presente trabajo, trata del ahorro de energía en la edificación y en el urbanismo. Las premisas en este caso, son un contexto normativo europeo y nacional muy exigentes y encaminados de manera decidida hacia edificios cada vez más eficientes y económicos. Se centra el estudio en las decisiones iniciales que se adoptan sobre las condiciones de ocupación de la parcela urbana, las tipologías edificatorias más adecuadas, su morfología y escala y las consecuencias que tienen para el comportamiento energético final, tanto en términos objetivos como normativos. Se trata de cuantificar que suponen estas decisiones en términos de ahorro energético. Todo el análisis se realiza para un contexto climático concreto, el de la ciudad de Madrid. Para los análisis de las diferentes condiciones de implantación objeto del estudio, se han empleado unas herramientas informáticas singulares. Se trata de los programas de evaluación de la demanda y certificación energética de edificios, que el gobierno español pone a disposición de los usuarios de manera gratuita. Estas, son aplicaciones pensadas para la escala del edificio y/o parte de él, pero que con la metodología y simplificaciones que en el trabajo se detallan, pueden ser empleadas en la escala media de intervención urbana, tanto en nueva implantación como en rehabilitación. Hay que tener en cuenta que son estas aplicaciones las que se utilizarán en la mayoría de los casos como instrumento de evaluación y calificación del comportamiento energético de cada una de las unidades. Las tipologías objeto del estudio son: - Vivienda unifamiliar: aislada, pareada y adosada en hilera. - Bloque abierto - Bloque en H - Bloque en cruz - Torre - Manzana cerrada El contenido principal del trabajo se centra en el análisis individual de cada tipología y de su agrupación teórica sobre lo que podíamos llamar "unidad urbana", una manzana tipo de 10.000 m2, 1 ha. Se opta por esta unidad por tratarse de una superficie urbana lo suficientemente amplia para caracterizar la agrupación de las diferentes tipologías estudiadas y por adaptarse a las capacidades de las herramientas informáticas que se han utilizado. Se han analizado diferentes opciones tipológicas de ocupación, manteniendo constantes en todas las soluciones estudiadas, los siguientes parámetros: • el clima (Madrid), • la edificabilidad (en todas menos una en la que el modelo no permite alcanzar la edificabilidad de referencia), • la pureza formal del modelo, evitando los juegos compositivos de retranqueos y salientes de la envolvente que distorsionen el comportamiento de la volumetría primaria, • las soluciones constructivas de la envolvente y particiones interiores de los edificios, • las proporciones de huecos en la envolvente, • las soluciones de sus carpinterías y vidrios • y todas las condiciones operacionales que aplica el programa de simulación. Esta tesis, es un estudio analítico y evaluado, del comportamiento de cada uno de los tipos, su forma y posicionamiento en el espacio. Cada uno de los modelos se simula de manera individual y agrupados, con el fin de conseguir colmatar la edificabilidad de referencia sobre la parcela urbana de 1 ha. Todos los resultados se estudian de forma independiente y los resultados se expresan en diferentes tablas y un resumen en fichas individuales por tipos. La conclusión principal del trabajo es que la tipología elegida como contenedor residencial urbano determina en su elección acertada la primera medida de ahorro energético y reducción de emisiones cuantificables en más del 50% entre las tipologías más favorables y las más desfavorables. Una segunda parte del trabajo de investigación, consiste en la aplicación de esta metodología de simulación y empleando las mismas herramientas, en el estudio de casos reales en la comunidad de Madrid (principalmente en la ciudad de Madrid). El objetivo es validar el procedimiento y dichas herramientas, también para el caso de evaluación de tejidos urbanos consolidados. Como caso singular de estudio de rehabilitación urbana, se analizan las intervenciones de rehabilitación partiendo de criterios acústicos y las oportunidades que plantearía la inclusión de criterios térmicos aprovechando la sinergia entre ambas demandas, la de confort acústico y térmico. ABSTRACT This PhD work is about saving energy in buildings and urban planning. The premises in this case are a very demanding European and national policy, aimed decisively towards efficient and economic buildings. The study focuses on the initial decisions taken on the conditions of occupation of urban land, the most suitable building types, their morphology and scale and the implications for the final energy performance, always considering policy objectives. This essay tries to quantify how important this decisions are in energy savings terms. All analysis are performed for a particular climatic context, the city of Madrid. For the analysis of different implantation conditions under study, we have used a unique software tool. This software, a free tool available online, quantifies demand assessment and energy certification of buildings. It is designed for building scale and / or part of it. With the methodology and simplifications detailed in this paper, the software can be used in medium scale urban intervention. There are different types under study such as, isolated house, semi-detached, terraces row, open block, h block, cross block, tower, etc. The main content of the work focuses on the individual analysis of each type and its theoretical group, named urban unit group. This unit is chosen because it is an urban area large enough to characterize the grouping of the different types studied. It is also possible to simulate with the software tools. Different options of typological occupation have been analyzed taking in consideration the next parameters: climate, floor area, model formal purity, building envelope solutions and interior partitions of buildings, the proportions of voids in the facades. This thesis is an analytical and evaluated study of the behavior of each types, form and position in space. Each of the models is simulated individually and grouped, in order to get the reference buildable urban plot of 1 ha. All results are studied independently and the results are expressed in different tables and a summary in individual files by type. The main conclusion of the study is that the type chosen as urban residential container you choose determines the first step in successful energy savings and quantifiable reduction of emissions by more than 50% in the most favorable and the most unfavorable types. A second part of the research, is the application of this methodology and simulation using the same tools in the study of real cases in the community of Madrid (mainly in the city of Madrid). The aim is to validate the procedure and such tools, also for the case of evaluation of consolidated urban fabric. As a unique case study of urban renewal, rehabilitation interventions based on acoustic criteria and opportunities arise thermal criteria including leveraging the synergy between the two demands, acoustic and thermal comfort are analyzed.
Resumo:
This paper presents the experimental results obtained by applying frequency-domain structural health monitoring techniques to assess the damage suffered on a special type of damper called Web Plastifying Damper (WPD). The WPD is a hysteretic type energy dissipator recently developed for the passive control of structures subjected to earthquakes. It consists of several I-section steel segments connected in parallel. The energy is dissipated through plastic deformations of the web of the I-sections, which constitute the dissipative parts of the damper. WPDs were subjected to successive histories of dynamically-imposed cyclic deformations of increasing magnitude with the shaking table of the University of Granada. To assess the damage to the web of the I-section steel segments after each history of loading, a new damage index called Area Index of Damage (AID) was obtained from simple vibration tests. The vibration signals were acquired by means of piezoelectric sensors attached on the I-sections, and non-parametric statistical methods were applied to calculate AID in terms of changes in frequency response functions. The damage index AID was correlated with another energy-based damage index-ID- which past research has proven to accurately characterize the level of mechanical damage. The ID is rooted in the decomposition of the load-displacement curve experienced by the damper into the so-called skeleton and Bauschinger parts. ID predicts the level of damage and the proximity to failure of the damper accurately, but it requires costly instrumentation. The experiments reported in this paper demonstrate a good correlation between AID and ID in a realistic seismic loading scenario consisting of dynamically applied arbitrary cyclic loads. Based on this correlation, it is possible to estimate ID indirectly from the AID, which calls for much simpler and less expensive instrumentation.