1000 resultados para PRECIOS DE LA ENERGÍA


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis aborda la formulación, análisis e implementación de métodos numéricos de integración temporal para la solución de sistemas disipativos suaves de dimensión finita o infinita de manera que su estructura continua sea conservada. Se entiende por dichos sistemas aquellos que involucran acoplamiento termo-mecánico y/o efectos disipativos internos modelados por variables internas que siguen leyes continuas, de modo que su evolución es considerada suave. La dinámica de estos sistemas está gobernada por las leyes de la termodinámica y simetrías, las cuales constituyen la estructura que se pretende conservar de forma discreta. Para ello, los sistemas disipativos se describen geométricamente mediante estructuras metriplécticas que identifican claramente las partes reversible e irreversible de la evolución del sistema. Así, usando una de estas estructuras conocida por las siglas (en inglés) de GENERIC, la estructura disipativa de los sistemas es identificada del mismo modo que lo es la Hamiltoniana para sistemas conservativos. Con esto, métodos (EEM) con precisión de segundo orden que conservan la energía, producen entropía y conservan los impulsos lineal y angular son formulados mediante el uso del operador derivada discreta introducido para asegurar la conservación de la Hamiltoniana y las simetrías de sistemas conservativos. Siguiendo estas directrices, se formulan dos tipos de métodos EEM basados en el uso de la temperatura o de la entropía como variable de estado termodinámica, lo que presenta importantes implicaciones que se discuten a lo largo de esta tesis. Entre las cuales cabe destacar que las condiciones de contorno de Dirichlet son naturalmente impuestas con la formulación basada en la temperatura. Por último, se validan dichos métodos y se comprueban sus mejores prestaciones en términos de la estabilidad y robustez en comparación con métodos estándar. This dissertation is concerned with the formulation, analysis and implementation of structure-preserving time integration methods for the solution of the initial(-boundary) value problems describing the dynamics of smooth dissipative systems, either finite- or infinite-dimensional ones. Such systems are understood as those involving thermo-mechanical coupling and/or internal dissipative effects modeled by internal state variables considered to be smooth in the sense that their evolutions follow continuos laws. The dynamics of such systems are ruled by the laws of thermodynamics and symmetries which constitutes the structure meant to be preserved in the numerical setting. For that, dissipative systems are geometrically described by metriplectic structures which clearly identify the reversible and irreversible parts of their dynamical evolution. In particular, the framework known by the acronym GENERIC is used to reveal the systems' dissipative structure in the same way as the Hamiltonian is for conserving systems. Given that, energy-preserving, entropy-producing and momentum-preserving (EEM) second-order accurate methods are formulated using the discrete derivative operator that enabled the formulation of Energy-Momentum methods ensuring the preservation of the Hamiltonian and symmetries for conservative systems. Following these guidelines, two kind of EEM methods are formulated in terms of entropy and temperature as a thermodynamical state variable, involving important implications discussed throughout the dissertation. Remarkably, the formulation in temperature becomes central to accommodate Dirichlet boundary conditions. EEM methods are finally validated and proved to exhibit enhanced numerical stability and robustness properties compared to standard ones.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los fieltros son una familia de materiales textiles constituidos por una red desordenada de fibras conectadas por medio de enlaces térmicos, químicos o mecánicos. Presentan menor rigidez y resistencia (al igual que un menor coste de procesado) que sus homólogos tejidos, pero mayor deformabilidad y capacidad de absorción de energía. Los fieltros se emplean en diversas aplicaciones en ingeniería tales como aislamiento térmico, geotextiles, láminas ignífugas, filtración y absorción de agua, impacto balístico, etc. En particular, los fieltros punzonados fabricados con fibras de alta resistencia presentan una excelente resistencia frente a impacto balístico, ofreciendo las mismas prestaciones que los materiales tejidos con un tercio de la densidad areal. Sin embargo, se sabe muy poco acerca de los mecanismos de deformación y fallo a nivel microscópico, ni sobre como influyen en las propiedades mecánicas del material. Esta carencia de conocimiento dificulta la optimización del comportamiento mecánico de estos materiales y también limita el desarrollo de modelos constitutivos basados en mecanismos físicos, que puedan ser útiles en el diseño de componentes estructurales. En esta tesis doctoral se ha llevado a cabo un estudio minucioso con el fin de determinar los mecanismos de deformación y las propiedades mecánicas de fieltros punzonados fabricados con fibras de polietileno de ultra alto peso molecular. Los procesos de deformación y disipación de energía se han caracterizado en detalle por medio de una combinación de técnicas experimentales (ensayos mecánicos macroscópicos a velocidades de deformación cuasi-estáticas y dinámicas, impacto balístico, ensayos de extracción de una o múltiples fibras, microscopía óptica, tomografía computarizada de rayos X y difracción de rayos X de gran ángulo) que proporcionan información de los mecanismos dominantes a distintas escalas. Los ensayos mecánicos macroscópicos muestran que el fieltro presenta una resistencia y ductilidad excepcionales. El estado inicial de las fibras es curvado, y la carga se transmite por el fieltro a través de una red aleatoria e isótropa de nudos creada por el proceso de punzonamiento, resultando en la formación de una red activa de fibra. La rotación y el estirado de las fibras activas es seguido por el deslizamiento y extracción de la fibra de los puntos de anclaje mecánico. La mayor parte de la resistencia y la energía disipada es proporcionada por la extracción de las fibras activas de los nudos, y la fractura final tiene lugar como consecuencia del desenredo total de la red en una sección dada donde la deformación macroscópica se localiza. No obstante, aunque la distribución inicial de la orientación de las fibras es isótropa, las propiedades mecánicas resultantes (en términos de rigidez, resistencia y energía absorbida) son muy anisótropas. Los ensayos de extracción de múltiples fibras en diferentes orientaciones muestran que la estructura de los nudos conecta más fibras en la dirección transversal en comparación con la dirección de la máquina. La mejor interconectividad de las fibras a lo largo de la dirección transversal da lugar a una esqueleto activo de fibras más denso, mejorando las propiedades mecánicas. En términos de afinidad, los fieltros deformados a lo largo de la dirección transversal exhiben deformación afín (la deformación macroscópica transfiere directamente a las fibras por el material circundante), mientras que el fieltro deformado a lo largo de la dirección de la máquina presenta deformación no afín, y la mayor parte de la deformación macroscópica no es transmitida a las fibras. A partir de estas observaciones experimentales, se ha desarrollado un modelo constitutivo para fieltros punzonados confinados por enlaces mecánicos. El modelo considera los efectos de la deformación no afín, la conectividad anisótropa inducida durante el punzonamiento, la curvatura y re-orientación de la fibra, así como el desenredo y extracción de la fibra de los nudos. El modelo proporciona la respuesta de un mesodominio del material correspondiente al volumen asociado a un elemento finito, y se divide en dos bloques. El primer bloque representa el comportamiento de la red y establece la relación entre el gradiente de deformación macroscópico y la respuesta microscópica, obtenido a partir de la integración de la respuesta de las fibras en el mesodominio. El segundo bloque describe el comportamiento de la fibra, teniendo en cuenta las características de la deformación de cada familia de fibras en el mesodominio, incluyendo deformación no afín, estiramiento, deslizamiento y extracción. En la medida de lo posible, se ha asignado un significado físico claro a los parámetros del modelo, por lo que se pueden identificar por medio de ensayos independientes. Las simulaciones numéricas basadas en el modelo se adecúan a los resultados experimentales de ensayos cuasi-estáticos y balísticos desde el punto de vista de la respuesta mecánica macroscópica y de los micromecanismos de deformación. Además, suministran información adicional sobre la influencia de las características microstructurales (orientación de la fibra, conectividad de la fibra anisótropa, afinidad, etc) en el comportamiento mecánico de los fieltros punzonados. Nonwoven fabrics are a class of textile material made up of a disordered fiber network linked by either thermal, chemical or mechanical bonds. They present lower stiffness and strength (as well as processing cost) than the woven counterparts but much higher deformability and energy absorption capability and are used in many different engineering applications (including thermal insulation, geotextiles, fireproof layers, filtration and water absorption, ballistic impact, etc). In particular, needle-punched nonwoven fabrics manufactured with high strength fibers present an excellent performance for ballistic protection, providing the same ballistic protection with one third of the areal weight as compared to dry woven fabrics. Nevertheless, very little is known about their deformation and fracture micromechanisms at the microscopic level and how they contribute to the macroscopic mechanical properties. This lack of knowledge hinders the optimization of their mechanical performance and also limits the development of physically-based models of the mechanical behavior that can be used in the design of structural components with these materials. In this thesis, a thorough study was carried out to ascertain the micromechanisms of deformation and the mechanical properties of a needle-punched nonwoven fabric made up by ultra high molecular weight polyethylene fibers. The deformation and energy dissipation processes were characterized in detail by a combination of experimental techniques (macroscopic mechanical tests at quasi-static and high strain rates, ballistic impact, single fiber and multi fiber pull-out tests, optical microscopy, X-ray computed tomography and wide angle X-ray diffraction) that provided information of the dominant mechanisms at different length scales. The macroscopic mechanical tests showed that the nonwoven fabric presented an outstanding strength and energy absorption capacity. It was found that fibers were initially curved and the load was transferred within the fabric through the random and isotropic network of knots created by needlepunching, leading to the formation of an active fiber network. Uncurling and stretching of the active fibers was followed by fiber sliding and pull-out from the entanglement points. Most of the strength and energy dissipation was provided by the extraction of the active fibers from the knots and final fracture occurred by the total disentanglement of the fiber network in a given section at which the macroscopic deformation was localized. However, although the initial fiber orientation distribution was isotropic, the mechanical properties (in terms of stiffness, strength and energy absorption) were highly anisotropic. Pull-out tests of multiple fibers at different orientations showed that structure of the knots connected more fibers in the transverse direction as compared with the machine direction. The better fiber interconnection along the transverse direction led to a denser active fiber skeleton, enhancing the mechanical response. In terms of affinity, fabrics deformed along the transverse direction essentially displayed affine deformation {i.e. the macroscopic strain was directly transferred to the fibers by the surrounding fabric, while fabrics deformed along the machine direction underwent non-affine deformation, and most of the macroscopic strain was not transferred to the fibers. Based on these experimental observations, a constitutive model for the mechanical behavior of the mechanically-entangled nonwoven fiber network was developed. The model accounted for the effects of non-affine deformation, anisotropic connectivity induced by the entanglement points, fiber uncurling and re-orientation as well as fiber disentanglement and pull-out from the knots. The model provided the constitutive response for a mesodomain of the fabric corresponding to the volume associated to a finite element and is divided in two blocks. The first one was the network model which established the relationship between the macroscopic deformation gradient and the microscopic response obtained by integrating the response of the fibers in the mesodomain. The second one was the fiber model, which took into account the deformation features of each set of fibers in the mesodomain, including non-affinity, uncurling, pull-out and disentanglement. As far as possible, a clear physical meaning is given to the model parameters, so they can be identified by means of independent tests. The numerical simulations based on the model were in very good agreement with the experimental results of in-plane and ballistic mechanical response of the fabrics in terms of the macroscopic mechanical response and of the micromechanisms of deformation. In addition, it provided additional information about the influence of the microstructural features (fiber orientation, anisotropic fiber connectivity, affinity) on the mechanical performance of mechanically-entangled nonwoven fabrics.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde el siglo VIII hasta prácticamente el siglo XX, los molinos de marea han sido una fuente de desarrollo de las zonas en las que estaban implantados. En toda la costa atlántica de Europa, y posteriormente en América, se desarrollaron estos ingenios conectados por su naturaleza con los puertos. En ellos se procesaban materia prima que tenía su origen o destino en dichos puertos. La aparición de otras fuentes de energía más económicas y eficaces supuso la decadencia paulatina de estos ingenios, hasta la práctica desaparición de un buen número de ellos. En los últimos años, tanto instituciones privadas como públicas, especialmente ayuntamientos han mostrado un interés en conservar estos ingenios ya sea como edificación singular en el que se desarrollen distintos negocios, o como museos o “centros de interpretación” en los que se explica el funcionamiento del molino y su relación con la comarca de influencia. Este nuevo interés por el tema, unido a la necesidad de buscar nuevas fuentes de energías renovables para dar cumplimento a las condiciones del Tratado de Kyoto motivan la necesidad de un estudio de la aplicación de la energía minihidráulica a los antiguos molinos. En el presente documento se ha procedido en primer lugar a describir la historia de los molinos de marea y a continuación a localizarlos en cada provincia para identificar los posibles puntos de producción de energía. Seguidamente se procedió a identificar los diferentes tipos de turbinas aplicables a estos casos, de los que se han elegido dos de ellos, uno de ellos consolidado y el otro en fase experimental, para determinar y analizar la tendencia de determinadas magnitudes financieras en función de la carrera de marea. Las conclusiones resultantes de este análisis han sido que el sistema de funcionamiento mediante el flujo de la marea es menos productivo que mediante reflujo y que la altura de marea en las costas españolas limita considerablemente la rentabilidad de la inversión. Esta circunstancia obliga a hacer un estudio de viabilidad muy detallado de cada uno de los casos. Las investigaciones futuras en este campo se deben encaminar hacia el desarrollo de un nuevo tipo de miniturbina con una mayor regulación para obtener un mayor rendimiento, teniendo en cuenta, además, que el estuario de un molino de marea puede ser además un excelente banco de pruebas. Por otro lado, la posible producción de energía puede ser un elemento a estudiar dentro de un sistema de generación distribuida en el ámbito de una smart-city. From the eighth century until practically the twentieth century, the tide mills have been a source of development of the areas in which they were implanted. Across the Atlantic coast of Europe, and subsequently in America, these devices were developed and connected by its nature with the nearby ports. In these places the raw material, with its origin and destination from these ports, were processed. The emergence of other sources of energy more economic and efficient caused the gradual decline of these devices which led to the disappearance of a large number of them. In recent years, both private and public institutions, especially municipalities, have shown interest in preserving these devices as singular buildings, or as museums or "visitor centers" where the process of milling is explained and also its relationship with the region of influence. This renewed interest in the subject, coupled with the need of finding new sources of renewable energy in order to comply with the conditions of the Kyoto Treaty, has created the need for a study of the possible implementation of small hydro power in the old mills. In the present document, first we have proceeded to describe the history of the tide mills and afterwards we have located them in the Spanish provinces to identify the possible locations of energy generation. In the next step, we proceeded to identify the different types of turbines suitable to these cases, and we have been selected two of them. The first one is consolidated and the second one is in an experimental phase. With these pair of turbines we have determined and analyzed the outcome of certain financial data depending on the tidal range. The conclusions drawn from this analysis are that operating the system by the flow tide is less productive than by ebb tide. The limited height of tide in the Spanish coast considerably limits the return on investment. This outcome forces potential investors to make a very detailed analysis of each case study. Future researches in this field should be guided towards the development of a new type of mini turbine with more regulation for a higher performance, taking into account also that the basin of a tidal mill can also be an excellent test place. Furthermore, the potential energy output can be a factor to consider in a distributed generation system within a smart city.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El sistema de energía eólica-diesel híbrido tiene un gran potencial en la prestación de suministro de energía a comunidades remotas. En comparación con los sistemas tradicionales de diesel, las plantas de energía híbridas ofrecen grandes ventajas tales como el suministro de capacidad de energía extra para "microgrids", reducción de los contaminantes y emisiones de gases de efecto invernadero, y la cobertura del riesgo de aumento inesperado del precio del combustible. El principal objetivo de la presente tesis es proporcionar nuevos conocimientos para la evaluación y optimización de los sistemas de energía híbrido eólico-diesel considerando las incertidumbres. Dado que la energía eólica es una variable estocástica, ésta no puede ser controlada ni predecirse con exactitud. La naturaleza incierta del viento como fuente de energía produce serios problemas tanto para la operación como para la evaluación del valor del sistema de energía eólica-diesel híbrido. Por un lado, la regulación de la potencia inyectada desde las turbinas de viento es una difícil tarea cuando opera el sistema híbrido. Por otro lado, el bene.cio económico de un sistema eólico-diesel híbrido se logra directamente a través de la energía entregada a la red de alimentación de la energía eólica. Consecuentemente, la incertidumbre de los recursos eólicos incrementa la dificultad de estimar los beneficios globales en la etapa de planificación. La principal preocupación del modelo tradicional determinista es no tener en cuenta la incertidumbre futura a la hora de tomar la decisión de operación. Con lo cual, no se prevé las acciones operativas flexibles en respuesta a los escenarios futuros. El análisis del rendimiento y simulación por ordenador en el Proyecto Eólico San Cristóbal demuestra que la incertidumbre sobre la energía eólica, las estrategias de control, almacenamiento de energía, y la curva de potencia de aerogeneradores tienen un impacto significativo sobre el rendimiento del sistema. En la presente tesis, se analiza la relación entre la teoría de valoración de opciones y el proceso de toma de decisiones. La opción real se desarrolla con un modelo y se presenta a través de ejemplos prácticos para evaluar el valor de los sistemas de energía eólica-diesel híbridos. Los resultados muestran que las opciones operacionales pueden aportar un valor adicional para el sistema de energía híbrida, cuando esta flexibilidad operativa se utiliza correctamente. Este marco se puede aplicar en la optimización de la operación a corto plazo teniendo en cuenta la naturaleza dependiente de la trayectoria de la política óptima de despacho, dadas las plausibles futuras realizaciones de la producción de energía eólica. En comparación con los métodos de valoración y optimización existentes, el resultado del caso de estudio numérico muestra que la política de operación resultante del modelo de optimización propuesto presenta una notable actuación en la reducción del con- sumo total de combustible del sistema eólico-diesel. Con el .n de tomar decisiones óptimas, los operadores de plantas de energía y los gestores de éstas no deben centrarse sólo en el resultado directo de cada acción operativa, tampoco deberían tomar decisiones deterministas. La forma correcta es gestionar dinámicamente el sistema de energía teniendo en cuenta el valor futuro condicionado en cada opción frente a la incertidumbre. ABSTRACT Hybrid wind-diesel power systems have a great potential in providing energy supply to remote communities. Compared with the traditional diesel systems, hybrid power plants are providing many advantages such as providing extra energy capacity to the micro-grid, reducing pollution and greenhouse-gas emissions, and hedging the risk of unexpected fuel price increases. This dissertation aims at providing novel insights for assessing and optimizing hybrid wind-diesel power systems considering the related uncertainties. Since wind power can neither be controlled nor accurately predicted, the energy harvested from a wind turbine may be considered a stochastic variable. This uncertain nature of wind energy source results in serious problems for both the operation and value assessment of the hybrid wind-diesel power system. On the one hand, regulating the uncertain power injected from wind turbines is a difficult task when operating the hybrid system. On the other hand, the economic profit of a hybrid wind-diesel system is achieved directly through the energy delivered to the power grid from the wind energy. Therefore, the uncertainty of wind resources has increased the difficulty in estimating the total benefits in the planning stage. The main concern of the traditional deterministic model is that it does not consider the future uncertainty when making the dispatch decision. Thus, it does not provide flexible operational actions in response to the uncertain future scenarios. Performance analysis and computer simulation on the San Cristobal Wind Project demonstrate that the wind power uncertainty, control strategies, energy storage, and the wind turbine power curve have a significant impact on the performance of the system. In this dissertation, the relationship between option pricing theory and decision making process is discussed. A real option model is developed and presented through practical examples for assessing the value of hybrid wind-diesel power systems. Results show that operational options can provide additional value to the hybrid power system when this operational flexibility is correctly utilized. This framework can be applied in optimizing short term dispatch decisions considering the path-dependent nature of the optimal dispatch policy, given the plausible future realizations of the wind power production. Comparing with the existing valuation and optimization methods, result from numerical example shows that the dispatch policy resulting from the proposed optimization model exhibits a remarkable performance in minimizing the total fuel consumption of the wind-diesel system. In order to make optimal decisions, power plant operators and managers should not just focus on the direct outcome of each operational action; neither should they make deterministic decisions. The correct way is to dynamically manage the power system by taking into consideration the conditional future value in each option in response to the uncertainty.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta Tesis surgió ante la intensidad y verosimilitud de varias señales o “warnings” asociadas a políticas dirigidas a reducir el peso del petróleo en el sector energético, tanto por razones económicas, como geopolíticas, como ambientales. Como tal Tesis se consolidó al ir incorporando elementos novedosos pero esenciales en el mundo petrolífero, particularmente las “tecnologías habilitantes”, tanto de incidencia directa, como el “fracking” como indirecta, del cual es un gran ejemplo el Vehículo Eléctrico (puro). La Tesis se definió y estructuró para elaborar una serie de indagaciones y disquisiciones, que comportaran un conjunto de conclusiones que fueran útiles para las corporaciones energéticas. También para la comprensión de la propia evolución del sector y de sus prestaciones técnicas y económicas, de cara a dar el servicio que los usuarios finales piden. Dentro de las tareas analíticas y reflexivas de la Tesis, se acuñaron ciertos términos conceptuales para explicar más certeramente la realidad del sector, y tal es el caso del “Investment burden”, que pondera la inversión específica (€/W) requerida por una instalación, con la duración del período de construcción y los riesgos tanto tangibles como regulatorios. Junto a ello la Tesis propone una herramienta de estudio y prognosis, denominada “Market integrated energy efficiency”, especialmente aplicable a dicotomías. Tal es el caso del coche térmico, versus coche eléctrico. El objetivo es optimizar una determinada actividad energética, o la productividad total del sector. Esta Tesis propone varias innovaciones, que se pueden agrupar en dos niveles: el primero dentro del campo de la Energía, y el segundo dentro del campo de las corporaciones, y de manera especial de las corporaciones del sector hidrocarburos. A nivel corporativo, la adaptación a la nueva realidad será función directa de la capacidad de cada corporación para desarrollar y/o comprar las tecnologías que permitan mantener o aumentar cuota de mercado. Las conclusiones de la Tesis apuntan a tres opciones principalmente para un replanteamiento corporativo: - Diversificación energética - Desplazamiento geográfico - Beneficiándose de posibles nuevos nichos tecnológicos, como son: • En upstream: Recuperación estimulada de petróleo mediante uso de energías renovables • En downstream: Aditivos orientados a reducir emisiones • En gestión del cambio: Almacenamiento energético con fines operativos Algunas políticas energéticas siguen la tendencia de crecimiento cero de algunos países de la OCDE. No obstante, la realidad mundial es muy diferente a la de esos países. Por ejemplo, según diversas estimaciones (basadas en bancos de datos solventes, referenciados en la Tesis) el número de vehículos aumentará desde aproximadamente mil millones en la actualidad hasta el doble en 2035; mientras que la producción de petróleo sólo aumentará de 95 a 145 millones de barriles al día. Un aumento del 50% frente a un aumento del 100%. Esto generará un curioso desajuste, que se empezará a sentir en unos pocos años. Las empresas y corporaciones del sector hidrocarburos pueden perder el monopolio que atesoran actualmente en el sector transporte frente a todas las demás fuentes energéticas. Esa pérdida puede quedar compensada por una mejor gestión de todas sus capacidades y una participación más integrada en el mundo de la energía, buscando sinergias donde hasta ahora no había sino distanciamiento. Los productos petrolíferos pueden alimentar cualquier tipo de maquina térmica, como las turbinas Brayton, o alimentar reformadores para la producción masiva de H2 para su posterior uso en pilas combustible. El almacenamiento de productos derivados del petróleo no es ningún reto ni plantea problema alguno; y sin embargo este almacenamiento es la llave para resolver muchos problemas. Es posible que el comercio de petróleo se haga menos volátil debido a los efectos asociados al almacenamiento; pero lo que es seguro es que la eficiencia energética de los usos de ese petróleo será más elevada. La Tesis partía de ciertas amenazas sobre el futuro del petróleo, pero tras el análisis realizado se puede vislumbrar un futuro prometedor en la fusión de políticas medioambientales coercitivas y las nuevas tecnologías emergentes del actual portafolio de oportunidades técnicas. ABSTRACT This Thesis rises from the force and the credibility of a number of warning signs linked to policies aimed at reducing the role of petroleum in the energy industry due to economical, geopolitical and environmental drives. As such Thesis, it grew up based on aggregating new but essentials elements into the petroleum sector. This is the case of “enabling technologies” that have a direct impact on the petroleum industry (such as fracking), or an indirect but deep impact (such as the full electrical vehicle). The Thesis was defined and structured in such a way that could convey useful conclusions for energy corporations through a series of inquiries and treatises. In addition to this, the Thesis also aims at understating la evolution of the energy industry and its capabilities both technical and economical, towards delivering the services required by end users. Within the analytical task performed in the Thesis, new terms were coined. They depict concepts that aid at explaining the facts of the energy industry. This is the case for “Investment burden”, it weights the specific capital investment (€/W) required to build a facility with the time that takes to build it, as well as other tangible risks as those posed by regulation. In addition to this, the Thesis puts forward an application designed for reviewing and predicting: the so called “Market integrated energy efficiency”, especially well-suited for dichotomies, very appealing for the case of the thermal car versus the electric car. The aim is to optimize energy related activity; or even the overall productivity of the system. The innovations proposed in this Thesis can be classified in two tiers. Tier one, within the energy sector; and tier two, related to Energy Corporation in general, but with oil and gas corporations at heart. From a corporate level, the adaptation to new energy era will be linked with the corporation capability to develop or acquire those technologies that will yield to retaining or enhancing market share. The Thesis highlights three options for corporate evolution: - diversification within Energy - geographic displacement - profiting new technologies relevant to important niches of work for the future, as: o Upstream: enhanced oil recovery using renewable energy sources (for upstream companies in the petroleum business) o Downstream: additives for reducing combustion emissions o Management of Change: operational energy storage Some energy policies tend to follow the zero-growth of some OECD countries, but the real thing could be very different. For instance, and according to estimates the number of vehicles in use will grow from 1 billion to more than double this figure 2035; but oil production will only grow from 95 million barrel/day to 145 (a 50% rise of versus an intensification of over a 100%). Hydrocarbon Corporation can lose the monopoly they currently hold over the supply of energy to transportation. This lose can be mitigated through an enhanced used of their capabilities and a higher degree of integration in the world of energy, exploring for synergies in those places were gaps were present. Petroleum products can be used to feed any type of thermal machine, as Brayton turbines, or steam reformers to produce H2 to be exploited in fuel cells. Storing petroleum products does not present any problem, but very many problems can be solved with them. Petroleum trading will likely be less volatile because of the smoothing effects of distributed storage, and indeed the efficiency in petroleum consumption will be much higher. The Thesis kicked off with a menace on the future of petroleum. However, at the end of the analysis, a bright future can be foreseen in the merging between highly demanding environmental policies and the relevant technologies of the currently emerging technical portfolio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este trabajo se aborda una cuestión central en el diseño en carga última de estructuras de hormigón armado y de fábrica: la posibilidad efectiva de que las deformaciones plásticas necesarias para verificar un estado de rotura puedan ser alcanzadas por las regiones de la estructura que deban desarrollar su capacidad última para verificar tal estado. Así, se parte de las decisiones de diseño que mediante mera estática aseguran un equilibrio de la estructura para las cargas últimas que deba resistir, pero determinando directamente el valor de las deformaciones necesarias para llegar a tal estado. Por tanto, no se acude a los teoremas de rotura sin más, sino que se formula el problema desde un punto de vista elastoplástico. Es decir, no se obvia el recorrido que la estructura deba realizar en un proceso de carga incremental monótono, de modo que las regiones no plastificadas contribuyen a coaccionar las libres deformaciones plásticas que, en la teoría de rotura, se suponen. En términos de trabajo y energía, se introduce en el balance del trabajo de las fuerzas externas y en el de la energía de deformación, aquella parte del sistema que no ha plastificado. Establecido así el balance energético como potencial del sistema es cuando la condición de estacionariedad del mismo hace determinados los campos de desplazamientos y, por tanto, el de las deformaciones plásticas también. En definitiva, se trata de un modo de verificar si la ductilidad de los diseños previstos es suficiente, y en qué medida, para verificar el estado de rotura previsto, para unas determinadas cargas impuestas. Dentro del desarrollo teórico del problema, se encuentran ciertas precisiones importantes. Entre ellas, la verificación de que el estado de rotura a que se llega de manera determinada mediante el balance energético elasto-plástico satisface las condiciones de la solución de rotura que los teoremas de carga última predicen, asegurando, por tanto, que la solución determinada -unicidad del problema elásticocoincide con el teorema de unicidad de la carga de rotura, acotando además cuál es el sistema de equilibrio y cuál es la deformada de colapso, aspectos que los teoremas de rotura no pueden asegurar, sino sólo el valor de la carga última a verificar. Otra precisión se basa en la particularidad de los casos en que el sistema presenta una superficie de rotura plana, haciendo infinitas las posibilidades de equilibrio para una misma deformada de colapso determinada, lo que está en la base de, aparentemente, poder plastificar a antojo en vigas y arcos. Desde el planteamiento anterior, se encuentra entonces que existe una condición inherente a cualquier sistema, definidas unas leyes constitutivas internas, que permite al mismo llegar al inicio del estado de rotura sin demandar deformación plástica alguna, produciéndose la plastificación simultánea de todas las regiones que hayan llegado a su solicitación de rotura. En cierto modo, se daría un colapso de apariencia frágil. En tal caso, el sistema conserva plenamente hasta el final su capacidad dúctil y tal estado actúa como representante canónico de cualquier otra solución de equilibrio que con idéntico criterio de diseño interno se prevea para tal estructura. En la medida que el diseño se acerque o aleje de la solución canónica, la demanda de ductilidad del sistema para verificar la carga última será menor o mayor. Las soluciones que se aparten en exceso de la solución canónica, no verificarán el estado de rotura previsto por falta de ductilidad: la demanda de deformación plástica de alguna región plastificada estará más allá de la capacidad de la misma, revelándose una carga de rotura por falta de ductilidad menor que la que se preveía por mero equilibrio. Para la determinación de las deformaciones plásticas de las rótulas, se ha tomado un modelo formulado mediante el Método de los Elementos de Contorno, que proporciona un campo continuo de desplazamientos -y, por ende, de deformaciones y de tensiones- incluso en presencia de fisuras en el contorno. Importante cuestión es que se formula la diferencia, nada desdeñable, de la capacidad de rotación plástica de las secciones de hormigón armado en presencia de cortante y en su ausencia. Para las rótulas de fábrica, la diferencia se establece para las condiciones de la excentricidad -asociadas al valor relativo de la compresión-, donde las diferencias entres las regiones plastificadas con esfuerzo normal relativo alto o bajo son reseñables. Por otro lado, si bien de manera un tanto secundaria, las condiciones de servicio también imponen un límite al diseño previo en carga última deseado. La plastificación lleva asociadas deformaciones considerables, sean locales como globales. Tal cosa impone que, en estado de servicio, si la plastificación de alguna región lleva asociadas fisuraciones excesivas para el ambiente del entorno, la solución sea inviable por ello. Asimismo, las deformaciones de las estructuras suponen un límite severo a las posibilidades de su diseño. Especialmente en edificación, las deformaciones activas son un factor crítico a la hora de decidirse por una u otra solución. Por tanto, al límite que se impone por razón de ductilidad, se debe añadir el que se imponga por razón de las condiciones de servicio. Del modo anterior, considerando las condiciones de ductilidad y de servicio en cada caso, se puede tasar cada decisión de diseño con la previsión de cuáles serán las consecuencias en su estado de carga última y de servicio. Es decir, conocidos los límites, podemos acotar cuáles son los diseños a priori que podrán satisfacer seguro las condiciones de ductilidad y de servicio previstas, y en qué medida. Y, en caso de no poderse satisfacer, qué correcciones debieran realizarse sobre el diseño previo para poderlas cumplir. Por último, de las consecuencias que se extraen de lo estudiado, se proponen ciertas líneas de estudio y de experimentación para poder llegar a completar o expandir de manera práctica los resultados obtenidos. ABSTRACT This work deals with a main issue for the ultimate load design in reinforced concrete and masonry structures: the actual possibility that needed yield strains to reach a ultimate state could be reached by yielded regions on the structure that should develop their ultimate capacity to fulfill such a state. Thus, some statically determined design decisions are posed as a start for prescribed ultimate loads to be counteracted, but finding out the determined value of the strains needed to reach the ultimate load state. Therefore, ultimate load theorems are not taken as they are, but a full elasto-plastic formulation point of view is used. As a result, the path the structure must develop in a monotonus increasing loading procedure is not neglected, leading to the fact that non yielded regions will restrict the supposed totally free yield strains under a pure ultimate load theory. In work and energy terms, in the overall account of external forces work and internal strain energy, those domains in the body not reaching their ultimate state are considered. Once thus established the energy balance of the system as its potential, by imposing on it the stationary condition, both displacements and yield strains appear as determined values. Consequently, what proposed is a means for verifying whether the ductility of prescribed designs is enough and the extent to which they are so, for known imposed loads. On the way for the theoretical development of the proposal, some important aspects have been found. Among these, the verification that the conditions for the ultimate state reached under the elastoplastic energy balance fulfills the conditions prescribed for the ultimate load state predicted through the ultimate load theorems, assuring, therefore, that the determinate solution -unicity of the elastic problemcoincides with the unicity ultimate load theorem, determining as well which equilibrium system and which collapse shape are linked to it, being these two last aspects unaffordable by the ultimate load theorems, that make sure only which is the value of the ultimate load leading to collapse. Another aspect is based on the particular case in which the yield surface of the system is flat -i.e. expressed under a linear expression-, turning out infinite the equilibrium possibilities for one determined collapse shape, which is the basis of, apparently, deciding at own free will the yield distribution in beams and arches. From the foresaid approach, is then found that there is an inherent condition in any system, once defined internal constitutive laws, which allows it arrive at the beginning of the ultimate state or collapse without any yield strain demand, reaching the collapse simultaneously for all regions that have come to their ultimate strength. In a certain way, it would appear to be a fragile collapse. In such a case case, the system fully keeps until the end its ductility, and such a state acts as a canonical representative of any other statically determined solution having the same internal design criteria that could be posed for the that same structure. The extent to which a design is closer to or farther from the canonical solution, the ductility demand of the system to verify the ultimate load will be higher or lower. The solutions being far in excess from the canonical solution, will not verify the ultimate state due to lack of ductility: the demand for yield strains of any yielded region will be beyond its capacity, and a shortcoming ultimate load by lack of ductility will appear, lower than the expected by mere equilibrium. For determining the yield strains of plastic hinges, a Boundary Element Method based model has been used, leading to a continuous displacement field -therefore, for strains and stresses as well- even if cracks on the boundary are present. An important aspect is that a remarkable difference is found in the rotation capacity between plastic hinges in reinforced concrete with or without shear. For masonry hinges, such difference appears when dealing with the eccentricity of axial forces -related to their relative value of compression- on the section, where differences between yield regions under high or low relative compressions are remarkable. On the other hand, although in a certain secondary manner, serviceability conditions impose limits to the previous ultimate load stated wanted too. Yield means always big strains and deformations, locally and globally. Such a thing imposes, for serviceability states, that if a yielded region is associated with too large cracking for the environmental conditions, the predicted design will be unsuitable due to this. Furthermore, displacements must be restricted under certain severe limits that restrain the possibilities for a free design. Especially in building structures, active displacements are a critical factor when chosing one or another solution. Then, to the limits due to ductility reasons, other limits dealing with serviceability conditions shoud be added. In the foresaid way, both considering ductility and serviceability conditions in every case, the results for ultimate load and serviceability to which every design decision will lead can be bounded. This means that, once the limits are known, it is possible to bound which a priori designs will fulfill for sure the prescribed ductility and serviceability conditions, and the extent to wich they will be fulfilled, And, in case they were not, which corrections must be performed in the previous design so that it will. Finally, from the consequences derived through what studied, several study and experimental fields are proposed, in order to achieve a completeness and practical expansion of the obtained results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Existe en el panorama edificado un patrimonio construido que se reconoce como Centro Comercial. Un conjunto entendido, en sentido genérico, como familia arquitectónica que tiene características propias y específicas que la identifican. El objeto de la presente tesis doctoral consiste en argumentar que este conjunto constituye un nuevo tipo en el panorama de las tipologías arquitectónicas. Un tipo con entidad propia, que se conecta a una forma diferente de entender la idea de modelo. Un concepto que va más allá de la consideración tradicional del término. Modelo virtual. Este tipo, que surge de una estructura teórica que hemos denominado teoría tipológica, se constituye en una herramienta más para el estudio y el desarrollo proyectual de los espacios arquitectónicos, tanto del propio Centro Comercial como del conjunto de la disciplina arquitectónica, como referencia legítima. El presente trabajo de tesis se inicia con un bloque introductorio denominado Método. Definimos en él una metodología que hemos llamado emocional. Trata de la oportunidad de la tesis. Del porqué de un título que recoge la palabra ignorada. Del interés que suscita el asunto en el contexto del momento presente. Oportunidad e interés en base a una vida profesional dedicada al mundo del Centro Comercial y a la importancia del patrimonio elegido como objeto de estudio. También ha sido un aliciente detectar como las planificaciones del territorio y de los ámbitos de las relaciones colectivas no han sido capaces de integrar un resultado satisfactorio. Quizás por no considerar la complejidad de sus muchas facetas. En consecuencia, el texto busca la esencia del Centro Comercial como soporte para la crítica de su impacto en los nuevos escenarios de relación que la sociedad y el entorno físico imponen. Ámbitos donde los mecanismos históricos del asociacionismo tradicional han dado paso a otros, como el Centro Comercial, de exaltación del individualismo, pero demandados por una sociedad que se identifica con ellos. Espacios que, con Galbraith, existen por de la perversidad intrínseca del binomio consumo-producción que inducen la perplejidad. Ésta pasa a formar parte de la esencia del nuevo espacio comercial, como quedó de manifiesto en el Congreso de Minnesota de 1997, sobre el Centro Comercial. Una sociedad que ha girado hacia el logro material en términos de culto, ocasionando creciente valor significante del consumo. Razón última de la humanidad al decir de Rem Koolhaas. Culto que desemboca en la urgencia de alcanzar niveles de estatus y de identificación con el grupo. Dos parámetros que marcan la relación con el otro. Relación de comparación que excita la necesidad de posesión de objetos que llevaban a recrear en el consumidor la ilusión de ser especiales, de no pasar desapercibidos. El producto de consumo, el objeto, se eleva a la consideración de valor social. En el Centro Comercial se venden valores. Marketing de valores. El deseo del individuo, no la necesidad, queda involucrado en el proceso. La oportunidad y el interés de este estudio surgen además para aclarar el significado de un espacio que sirve al consumidor y a su entorno. Un significado que alcanza sentido, entre otros, por la aparición de un nuevo contexto tras la Segunda Guerra Mundial. Suburbanización, automóvil, nivel de vida, un nuevo papel de la mujer. La Era del Consumo. Una era que genera la paradoja de un individuo con autodeterminación y autosuficiencia crecientes, en un mundo cada vez más condicionado y controlado por dinámicas de ofertas mediatizadas e ilimitadas. La arquitectura en este contexto ha de juzgarse por su relación con un hombre contemporáneo que camina hacia una progresiva excepcionalidad. Cerramos la presentación justificando el término ignorada que aparece en el Título de la Tesis. Subrayamos la escasa existencia de estudios estructurados que relacionen Centro Comercial y arquitectura. Realidad que se constata partiendo del libro de Pevsner, Historia de las Tipologías Arquitectónicas, de 1976. Analizamos también la aceptación que el Centro Comercial, valorado en algunos ámbitos como arquitectura populista. Primer Capítulo, los antecedentes. Se propone un recorrido histórico por la arquitectura comercial de todos los tiempos. El Documento busca concretar las características de la arquitectura comercial a lo largo de la historia para determinar relaciones entre ella y el Centro Comercial. Estas correspondencias van a permitir contestar la pregunta retórica que nos hacemos al inicio del Capítulo: ¿Es la arquitectura del Centro Comercial una arquitectura subsidiaria, o tiene personalidad propia independiente de la del mundo comercial? Con Zevi40, queremos dejar constancia que la relación arquitectura-historia es imprescindible en la tarea proyectual. Un análisis novedoso solo es posible desde la búsqueda de unas raíces auténticas. Así mismo, con Guy de Maupassant, estamos convencidos que “La arquitectura, a través de los siglos, ha tenido el privilegio de dar un símbolo a cada una de las épocas, de resumir con un pequeñísimo número de monumentos típicos, el modo de pensar, de soñar de una raza y de una civilización”. Este recorrido se inicia interpretando la arquitectura comercial minoica. Llegaremos, paso a paso, hasta el siglo XX, los grandes itinerarios comerciales y el Centro Comercial. Se descubren una serie de invariantes que permiten comparar y extraer conclusiones. Resulta novedoso constatar que el Centro Comercial nace para dar respuesta al hombre contemporáneo en su afán consumista. También lo es la rápida implantación y evolución del Centro Comercial en un corto periodo de sesenta años frente al ritmo sosegado de otras soluciones comerciales. Novedad es ver como el comercio y sus arquitecturas nacen abiertos, bajo tenderetes y el Centro Comercial se presenta cerrado. Así mismo, las referencias sacras constituyen un elemento de novedad para la reflexión, en un contexto materialista. Y tantas otras. En Minos, la óptica comercial ofrece otra visión de su legendaria cultura. ¿Palacio o plataforma logística?, gestión centralizada del intercambio, ¿vida pública y vida privada? Así, hasta llegar al siglo XIX. Sus las galerías y sus pasajes acristalados concebidos en primera instancia como medida de recomposición urbana. Espacio entendido desde lo público-privado, desde lo interior-exterior, desde el dentro-afuera, desde lo cerrado-abierto. Con los nuevos mercados de abastos, representan una revolución en el ámbito de la funcionalidad, de la máquina, de la gestión moderna y de las relaciones del ciudadano con la ciudad apoyado en base al intercambio de bienes de consumo. El Centro Comercial es heredero de esta transformación. El Gran Almacén, por otra parte, es el reflejo de otra gran revolución. La que va ligada a la producción y comercialización en masa, las comunicaciones, el precio fijo y el aumento del nivel de vida. El Centro Comercial reinterpreta estas situaciones insertándolas en un nuevo modelo de gestión. En el siglo XX, maestro en técnicas de venta, aparece el hipermercado. El Híper, con su carga de pedagogía, se incorpora al esquema orgánico del Centro Comercial. La tienda en si misma constituye la pieza base de dicho puzle orgánico. Es en esta época cuando la tienda empieza su despegue autónomo como arquitectura, aportando su experiencia. Tras ello, llegamos a las grandes rutas comerciales, que proponemos como metáfora del shopping. Cerramos el capítulo concluyendo con Eugenio Ferrer que “si establecemos una relación entre el espacio y el capitalismo, entonces podemos inferir que los espacios del consumo de masas (ECM) son configuraciones nuevas respecto al pasado (...), pero el sistema que lo introduce no lo es del todo”. Segundo Capítulo. Búsqueda de claves que permitan el reconocimiento del Centro Comercial. Llegados a este punto y con la perspectiva del tiempo cabe preguntarnos, ¿qué entendemos pues por Centro Comercial? ¿Cómo lo percibimos? Abordamos ahora el problema de la percepción del Centro Comercial y su significado. Además de constituirse en símbolo, referencia siempre presente, la eficacia del Shopping es una de las principales causas de su poder de atracción. El Centro Comercial resulta de la síntesis de la revolución del consumo y de la revolución de la gestión. Espacio eficaz del entretenimiento como destino. El usuario resuelve su vida cotidiana dentro de un hábitat que considera propio y que se entiende como el lugar hiperbólico de la transacción comercial. Espacio de la abundancia para el disfrute. Una arquitectura involucrada en esta eficacia. Su sentido del lugar no es otro que el Shopping, que se desenvuelve de forma análoga en todas partes. El hogar del consumidor. Las nuevas catedrales. Las catedrales del consumo. Destino místico. Lugar de peregrinación para el consumidor fervoroso. Espacio sagrado que integra al usuario en la cultura dominante. Cultura del consumo. Templos, donde el tiempo ha perdido su sentido. Paraíso. Un espacio donde la altura, la luz natural, la dimensión general refuerzan el carácter sacro de un espacio para una nueva religión laica. Un espacio seguro, protegido que nos acerca a ideas como la de útero materno, con su carga de calidez y de significación erótica aplicado al encuentro compra-comprador y, ligado a ello, la literatura especializada habla del Centro Comercial como nave espacial hiperesterilizada o de agujero negro que absorbe la energía cultural. Más allá, la simulación, donde se percibe un simulacro de ciudad. Simulacro coherente con todo lo que el Shopping desencadena a su alrededor. El lugar de los sueños, de la fantasía. Aquí los productos se han metamorfoseado en fetiches, en significados. Televisión tridimensional, donde el usuario actúa guiado por una pulsión similar al zapping. Espacio lúdico de la fascinación por comprar o de imaginar que se compra. Espacio de simulaciones que llevan a la ensoñación. Un nuevo lugar que sustituye al espacio cotidiano, con el señuelo de la protección, en un contexto imaginariamente público. Espacio de la hiperrealidad donde no se distingue la realidad de la fantasía, donde tras episodios de confusión y desconcierto, se borran las fronteras con lo imaginario. Espacio mágico, escenario del gran espectáculo del consumo, controlado milimétricamente, al modo de la visita a un gran monumento, que ha de sobrevivir a los tiempos para dar testimonio de nuestro momento. Un icono, un símbolo que transmite un mensaje, que solo el consumidor es capaz de interpretar. Una agitada mezcla, sin precedentes, de percepciones que hablan de perplejidad y asombro ante el fenómeno del Centro Comercial, su espacio y las reacciones del hombre contemporáneo. ¿Cuáles serían las claves que nos permitirían reconocer la calidad esencial de un Centro Comercial, en esta concurrencia de perplejidades? Primero, la función de servicio. Un espacio donde ocurren muchas más cosas que lo obvio, que la compra. Un edificio que se involucra con el entorno de la mano de lo inesperado, la sorpresa y las expectativas. Esta vocación de servicio conecta Centro Comercial y naturaleza arquitectónica. Función que sugiere percepciones ligadas a la experiencia de compra. Organismo que vive y late al unísono con su visitante, colocándose al servicio de sus necesidades, de su afán de consumo, del que vive. Segundo, la comunidad servida. El Centro comercial sirve a una sociedad concreta. La sociedad consumista. Una nueva sociedad que se identifica con el edificio desarrollando un sentido de comunidad al nivel de sus deseos. Esta comunidad que se configura a su alrededor, constituye el activo más poderoso para el éxito de su realidad cotidiana y de su futuro. Tercero, un compromiso de carácter holístico. La economía de la experiencia aplicada al afán consumista de una sociedad identificada con su Centro, da lugar a una experiencia holística planificada. Diseño emocional. Colaboración para el éxito de un conjunto de establecimientos comerciales que participan en la aventura espacio-comercial del Centro Comercial. Ellos son los inductores primarios del consumo. Pero esta colaboración tiene su culminación en la amplificación del mensaje, como un inmenso altavoz, que proviene de la unidad configurada por todos ellos. El reflejo de esta amplificación de mensajes, desde la poderosa unidad constituida, es el aumento de la rentabilidad, fin último de la operación. Cuarto, la forma a través de una identificación de carácter gestáltico. Desde la lectura gestáltica que hacemos de la unidad holística, se advierte una poderosa capacidad de comunicación del sistema con su contexto. Centro y entorno se tornan entonces cómplices que complementan sus realidades. El Centro Comercial, arquitectura estructurada como sistema se percibe –ha de percibirse- como forma unitaria que procede de una mirada de raíz gestáltica que continuamente la recompone desde una óptica espacial y física, ligada a la experiencia individual. Esta unidad formal, más allá de la forma real, se constituye en esencia de de su arquitectura. Quinto, el Centro Comercial como sistema. Un sistema soportado por la Teoría General de Sistemas. La consideración del Centro Comercial como sistema es consecuencia de su estructura holística. El todo no se comporta como la suma de las partes y estas no lo hacen como lo harían en solitario. De aquí surge la necesidad de diálogo permanente entre la comercialización –proceso de incorporación de partes- y su traducción al mundo del diseño –proceso de articular arquitectónicamente las partes. Como sistema así configurado, el Centro Comercial se inserta en el paradigma contemporáneo, lo que genera realidades duales que no son excluyentes y reacciones de perplejidad e incertidumbre que el sistema corrige con su capacidad de autorregulación. Aparece también el espectador cuántico, el visitante, el consumidor, que interactúa con el sistema. Desde las herramientas que nos aporta la idea de sistema complejo, afrontamos el Mix Comercial -en definitiva la eficaz localización de las piezas en orden a sus relaciones y al organismo resultante- y su incidencia en la arquitectura que estamos concibiendo. Una arquitectura impredecible por lo mutable, que se erige en reto de la operación y del diseñador. Diseño que, de la mano del concepto de sistema se convierte en herramienta a mayor gloria de la operación global. El debate del estilismo no será más que el resultado del análisis en busca del éxito de esta operación. Sexto, una arquitectura de la negociación. Negociación como mecanismo proyectual y como resultado. La solución de proyecto nunca resulta evidente en el Centro Comercial como consecuencia de lo imprevisible del propio proceso de configuración. Su concreción solo puede ser fruto del compromiso de todos los agentes por conseguir el objetivo de la operación. Esto se consigue desde el equilibrio de intereses. Comerciales y de diseño. Un compromiso con la negociación y una negociación íntimamente ligada a la coordinación. Séptimo, el espacio y el tiempo. El debate espacio-tiempo condiciona y estructura la percepción del Centro Comercial. Introducimos conceptos como cronotopo –el instante y el lugar donde ocurre algo- y paradoja –incoherencia de la relación causa efecto- que sitúan el vínculo entre el tiempo y el espacio del Centro Comercial en un contexto de Shopping. En el discurrir paralelo del tiempo histórico –el tiempo de fuera- y del tiempo interior, el de dentro del Centro Comercial –tiempo presente o intemporalidad-, se produce el triunfo social del Centro Comercial que se traduce en haber sabido resolver en el espacio y en el tiempo las paradojas postmodernas del hombre contemporáneo. Octavo, de lo global. Globalidad que no es ajena a lo local. Una arquitectura que insertada en la dinámica de una economía de ámbito mundial, refleja las contradicciones que ella impone, fundamentalmente en los procesos de inclusión y exclusión, afectando de manera decisiva al debate de lo local, que el Centro Comercial debe incorporar como herramienta ineludible de reconocimiento. Terminamos el capítulo segundo manifestando como estas ocho claves, asumidas en su conjunto, confirman que el Centro Comercial puede aparecer como un todo conceptual cohesionado, pasando a formar parte de una familia arquitectónica coherente, cuya estructura funcional somos capaces de establecer. El Capítulo Tercero presenta con detalle la figura del arquitecto Víctor Gruen, creador reconocido del moderno Centro Comercial. Presentamos su trayectoria profesional observando como las diferentes claves analizadas en capítulos anteriores van apareciendo de manera natural a lo largo de ella "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. Hombre complejo, conflictivo. Las paradojas a lo largo de su carrera fueron notables. Sin embargo siempre apareció como un hombre recto. Garret Eckbo, reconocido paisajista y colaborador de Gruen en el Centro Comercial peatonal del Centro urbano de Fresno, California, se asombraba de que alguien como Gruen hubiese sido capaz de combinar cortesía y humanidad en la carrera de ratas (sic) en la que se convirtió el universo de la comercialización americana y mantener la integridad542. Philip Johnson, en 1962, ponderando las muchas habilidades de Gruen manifestó que no estaba seguro si alguno de ellos, arquitectos artistas, hubiera sido capaz de hacer lo que Gruen hizo. A más, sobre Gruen, manifestó lo siguiente: "... El va más allá de la creación de un bello edificio. En jugar con la gente y sugerir lo que tienen que hacer, es un maestro. Y obtiene buenos resultados como hace la escultura. El suyo es un arte cívico, un sentido cívico.... Él es capaz de sentarse y poner cosas juntas. No es pomposo ni vano. Yo no me reuniría con él para hablar del diseño (de edificios). Víctor siente que cuando se habla de diseño se está ignorando todo el contexto... Su arquitectura es poderosamente limpia, no vuela la fantasía. Pero cuando te haces con su complejidad, ves que has descubierto algo más allá del diseño.... No puedes decir que haya alguien como él. La arquitectura tiene la suerte de tenerle como arquitecto..." Philip Johnson. Article in Fortune Review. 1962. El Documento de tesis cierra la visión de Gruen realizando un recorrido por los diferentes capítulos de su libro esencial, Shopping Towns Usa: The Planning of Shopping Centers. Solo su índice resulta un monumento al proceso de gestación del Centro Comercial. El libro, aquí simplemente mostrado en su estructura básica como un silencioso testigo, es la referencia canónica los Centros Comerciales contemporáneos, desde su aparición. . El Cuarto Capítulo del Documento de tesis es una recapitulación del trabajo anterior, en el que se sintetizan los conceptos de función y estilo relacionados con el Centro Comercial, se define en qué consiste cada uno de ellos y como, a partir de ahí, podemos afirmar que nos encontramos ante un tipo arquitectónico nuevo en el panorama de la disciplina arquitectónica. Terminamos el Capítulo integrando el Centro Comercial con un cuerpo teórico de referencias que se remiten a un tipo arquitectónico concreto y particular, acogiendo su singularidad como fenómeno arquitectónico autónomo. Como Conclusión de la tesis, resultado de todo lo anterior es decir, como consecuencia de la integración de un torrente de percepciones e intuiciones en un cuerpo teórico de referencias, deducidas de la existencia de unas claves que estructuran y penetran la esencia del singular modelo estudiado, haciéndolo detectable y seductor, resultan las características de un tipo arquitectónico con entidad propia que ordena, orienta y supedita la realidad y la existencia de esta nueva arquitectura. Una arquitectura nunca antes definida como tal, en el panorama tipológico de la disciplina. Teoría tipológica para una nueva arquitectura, que hemos ido proponiendo a lo largo del trabajo y que es coherente con los diferentes parámetros que se han analizado. Un conjunto edificado que, desde el estudio de sus claves esenciales y de sus invariantes perceptibles, aparece ahora más cercano, más familiar. Tanto que es posible destilar desde este conocimiento cercano e íntimo, una síntesis útil como referencia proyectual y como referencia para las grandes cuestiones que preocupan al discurrir del debate arquitectónico y sus ideas. El debate de la disciplina. El objeto de esta tesis, que consistía en establecer que el conjunto edificado que conocemos como Centro Comercial se constituye en un nuevo tipo en el panorama de las tipologías arquitectónicas, entendido el Centro Comercial en sentido genérico como familia arquitectónica con características propias y específicas que la hacen autónoma y reconocible, queda a nuestro juicio argumentado y justificado. ABSTRACT Within the frame of the built heritage there is a construction that is recognized as Shopping Center. An ensemble understood as an architectural family with its own specific recognizable characteristics. This thesis aims to explain that this building complex constitutes a new type in the panorama of architectural typology. This typology, with its singular identity, is connected to a way of understanding the idea of the model beyond an orthodox conception of the term understood as virtual model. This typology comes from a theoretical structure that we called typological theory, and it serves as yet another tool to reference the study and development design of the architectural spaces. In this first section, the Method, we emotionally explore the opportunities of this thesis. Why this typology has been ignored and the interest this work has in the present moment. An opportunity and an interest explained from an experience of a life dedicated to the world of Shopping Centers. The text then introduces the need for a rigorous knowledge of the Shopping Center’s essence in order to understand its impact in the frame of a new society and a new physical environment. A frame time where the historical mechanisms of association of civic community have given way to other gathering spaces like the Shopping Center, which encourages individualism, but is demanded by a society that relates to them. Spaces that, according to Galbraith, are a result of the intrinsic perversity of the unstoppable movement of the wheel of consumption-production. A society that has turned to worship of material achievement. Worship that provokes the appearance of an increasing value of consumption, according to Koolhaas, the only goal of humanity. Worship that ends in the need to reach certain status levels in the plane of a permanent comparison where the need of possession excites the consumer and gives them the illusion of being special. The product of consumption rises up to consideration of social values, entering a dynamic of marketing values, not only objects, but the desire of the individual remains. The study appears also to clarify the meaning of a space that serves the consumer and its context. A meaning that makes sense with the appearance of the suburbanization, the massive utilization of the car, the increase of living standards and the new role of women in the society after the Second World War, giving rise to the Age of Consumption. A world now determined and controlled by media and unlimited offers, where it’s necessary to place them in the context of the ordinary. An architecture that has to be judged precisely for its relation with this specific contemporary man. This section ends justifying the term ignored that appears in the Title of the Thesis, considering it in relation with the lack of studies structured about the Shopping Center and its architecture, drawing from Pevsner's work, A history of building types, 1976. Finally, the Shopping Center is analyzed with the most critical of thoughts, which considers it as populist architecture. The First Chapter, Precedents, proposes an historical tour of the commercial architecture throughout history. The Document looks to place on record the characteristics of the commercial architecture to set the connection between them and the Mall itself. These correspondences are going to allow us to answer the rhetorical question: is it the architecture of the Shopping Center a subsidiary architecture, or does it have its own personality independent from that of the commercial world? The reason of this historical search, citing Bruno Zevi, is that it is indispensable to establish the relationship between architecture and history, understating that an analysis is only possible when researching for their roots. Moreover, according to Guy de Maupassant, we are sure that architecture has had the privilege, across the centuries, of symbolizing as it were each age(…), through the harmony of lines and the charm of ornamentation all the grace and grandeur of an epoch. This historical reading, inseparable from a consistent design action, begins interpreting the commercial architecture of the Minoan to the 20th Century. Though this analysis of the big commercial itineraries and the study of the Shopping Center itself. A reading where we have found a series of constants that make it possible to draw conclusions from this comparison. The Mall appears to give response to the needs of a consumerist society. Comparing to the calm pace of the evolution of other commercial solutions, it is relevant its fast implantation and evolution in a short period of sixty years. Though via different solutions, the commercial spaces are considered taking into account the public-private relation, the interior-exterior, the inside-out, the closed-opened. Through that, the 19th century galleries and the food markets represent a revolution in functionality, in the machine, the modern management and the relations of the citizen within the city. All of this, the Mall inheritor feels. Likewise, the Department Store is the reflection of another great revolution. Production and commercialization en-mass, communications, the fixed price and increase of the living standard. The Mall reinterprets these situations inserting them in a new model of management. Already in the 20th century Mall and mass technologies of sale, the hypermarket is enthusiastically incorporated into the configuration of this organic scheme, constituting the base of one of the models, the French, that will be highly developed in the European continent. The shop itself constitutes, on the other hand, the key piece that completes the puzzle of the Mall and is in this epoch when it starts taking off as architecture, has an autonomous character. After all this, finally, we come to the big commercial routes, which we propose as metaphor of the shopping. Citing Eugenio Ferrer we can conclude that “If we establish a relation between the space and the capitalism, then we can infer that the spaces of the consumption of masses (ECM) are new configurations with regard to the past (...), but the system that introduces it it is not completely” Now we arrive at this point and with the perspective of time it is necessary to ask us, what do we understand about the Shopping Center? How do we perceive it? The second Chapter approaches the problem of the perception of the Mall and from this it is possible to detect and to identify key drivers that orientate the architectural comprehension of the space. The efficiency of the Shopping Center is its main power of attraction. A world that has ensued from the synthesis of the revolution of consumption and management. An effective cavern-like place of entertainment where the user, the consumer, the postmodern man solves his daily life inside a considered habitat. The hyperbolic place of commercial transaction. An abundance of space, that makes us perceive it as destination of entertainment. An architecture has evolved this efficiency, where the sense of place is at one with the sense of the Shopping. The home of the consumer. The new cathedrals. The cathedral of consumption. The place of peregrination for the fervent consumer. A sacred space that integrates the user in the dominant culture. A temple, where time itself has stopped existing. In this paroxysm, an expression of the Garden of Eden or Paradise itself. A space where the height, the natural daylight and the spatial dimension reinforce the sacred character of a new lay religion. Another common perception is that of a protected area, which leads to metaphors and considerations that suggest the idea of maternal womb, with its weight of erotic meaning, referring to the encounter of the shopper making a purchase. The literature also tells us about its perception as a sterile space capsule, a black hole that absorbs all cultural energy. Likewise, a world simulation where a mock city is perceived at first instance. Consistent with all that shopping triggers inside. A city, a space conceived as a place of dreams, fantasy, where the products have been metamorphosed into fetishes. Entertaining a television, three-dimensional television, where the user acts guided by a drive similar to zapping. A play area where the latest fascination is in the act of buying. Space simulations that unite and transcend creating atmospheres that lead to reverie. A new space replacing the daily space with the lure of safe space in a public context. A hyper-reality space with reality and fantasy, where borders are erased with imaginary episodes of confusion and bewilderment, without distinction. The charm and fascination of a space that reads like magic. The magic of a space which is defined as stage extravaganza, the large theatre, the consumer surveys in the fine control mode in which you visit a national monument. The shopping center has to survive the times to be a testimony of our time. An icon, a symbol that conveys a message, the message reads ‘consumer’. In short, a Shopping Center is a mix of unprecedented insights that speak of a widespread phenomenon of bewilderment. Its space and the reactions of contemporary man unfold in it like a fish in water. What are the key aspects which allow us to recognize the essential quality of a shopping center in this concurrence of perplexities? First, we want to record a service function of space much deeper than the immediately obvious, i.e. a purchase occurs. A building that appears to be involved with the environment and its people from the hand of the unexpected circumstances; surprise and attention. And that, in turn, also involves the visitor beyond the purchase. This dedication to service closely links the mall with its architectural nature. It is not the function of a lifeless machine. It is a feature that suggests unsuspected perceptions linked to the purchase, which speaks of an organism that lives and breathes in unison with the visitor. Second, in addition to the vocation of service-oriented desire for consumption, the Mall environment serves a particular society - The consumer society. A new society which relates to building a sense of community developed to the level of their desires. This community also constitutes the most powerful asset to the success of the daily life of the Shopping Center. Third, we emphasize that the so called economy of the experience is combined with the consumer zeal of a company that is identified by the Shopping Center. It connects to form a holistic and planned experience. This experience takes shape in the entity that ensues from the premeditated association and synergy, in the sense of a collaboration for success. A set of concrete commercial and independent establishments, take part in the spatial and commercial adventure that is the Mall and they are the instigators of the consumption. This holistic behavior finds culmination in the amplification of a claim that becomes unitary, like an immense force that leads to an increased profitability to all the levels. Consummation is a reference of one human being overturned in an architecture assimilated into a legitimate, emotional design with stability. A holistic quality is born of the essence of the building - and by virtue of the Conditions of Alexander, Christopher Alexander, determines the system condition of the Shopping Center. Fourth, we propose to establish what character the Mall will form when joined with the concept of its typology. This is going to allow the architectural work to be formed. As a result of the holistic structure that we see, the Mall is perceived as a system whose parts have their own function, justifying their existence in the ecosystem. Across a gestalt there is a powerful capacity of communication between the system and its context. We visualize on the one that stands out our building, turning both, Center and environment, in accomplices of a few special relations who complement each other in his realities. This relationship within a complex and diverse environment gives the Mall a range of unique spatial perceptions, the result of disparate experiences, which because of its root origin of gestalt, are integrated into a unified and coordinated manner fully intelligible and organized. This is the final formal essence of the Shopping Center. We can conclude here that the Mall as architecture is a structured system and should be perceived as a unit both from a physical and spatial perspective as this is the essence of its architecture. Fifth, the Mall as a system. A system which is being supported by a broad theoretical corpus, the General Systems Theory, which offers sufficient methodology to descend into consideration and give an enlightened conclusion on the overall understanding of the Mall. Consideration of the Mall as a system is a result of its holistic structure. The whole does not behave like any of the parties and they do not behave the way they used to before belonging to the whole, because they inhibit many of their qualities to their advantage. It arises the need for an ongoing dialogue between marketing processes and its translation into the physical world, the design. The system generates multiple perceptions to be integrated into a body which is to be understood as unitary. As a system, the Mall is inserted into the contemporary paradigm, creating dual realities that are not exclusive and are reactions of uncertainty that the system be properly designed at all levels, faced with their ability to self-regulate. Likewise, considering the visitor, the customer, like the quantum spectator who interacts with the system permanently. Moreover, a complex system confronts us with the Commercial mix, the effective location of parts in order to relate to the body and its importance in the architecture we are conceiving. Unpredictable architecture, which stands as the challenge of the operation and the designer. Design that becomes the tool of the system to create success for the overall operation. The discussion of the styling is merely the result of analysis that also seeks the success of the system, i.e. the styling should send the right message for the environment to ensure its survival. Sixth, the idea of negotiation as an architecture project, a mechanism inherent to the status of the proposed system. The project solution is never evident at the Shopping Center because of the unpredictability of the process itself. It can only be the fruit of the commitment of all stakeholders to achieve the objective of the operation. This is achieved from the balance of interests, of commercial and design. A commitment to negotiation and a negotiation linked to coordination. The pursuit of stability is key, as instability is always present and constantly requires strategies to build the object you are configuring. Seventh, proposes space-time itself as a circumstance that determines and structures the perception of the Mall in a singular way. We introduce concepts as chronotope and paradox to help us place the relationship between time and space within the Mall in the context of shopping. A consequence of the parallel flow of historical time - the time outside - and the time inside the Mall, the big shopping center formula is precisely that of having the feeling of timelessness in the space. The social triumph of the mall is the ability to resolve in space and in time all postmodern paradoxes and, beyond that, of contemporary man, condensing into a small space and time an enormous amount of cultural symbols, often contradictory, but they attract the practice of consumerism. Eighth, global level. Globalization which doesn’t ignore the local level. Architecture that is inserted into the dynamics of a global economy, reflects the contradictions that it imposes, mainly in the processes of inclusion and exclusion. Inclusion and exclusion affect the debate of the local level, which the Mall must incorporate as an unavoidable tool of recognition. The eight fundamental principles, when applied as a whole, confirm that the built heritage, which corresponds to the general Mall idea, can be presented as a cohesive conceptual whole. This becomes part of a coherent architectural family, whose functional structures are able to be established. The Third chapter presents in a detailed way the figure of the architect Victor Gruen, recognized as the creator of the modern Mall. Studying his professional experience, it is shown how the different keys analyzed in previous chapters are appearing in a natural way. "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. He was a complex, troubled man and the paradoxes along his career were notable. Nevertheless, always he appeared as a straight man. Garret Eckbo, the recognized landscape painter and collaborator of Gruen was astonished how Gruen had been capable of combining comity and humanity in this career of rates, into that the American commercialization turned, Johnson, in 1962, weighting many Gruen's skills demonstrated that he was not sure if anyone of them, architects artists, had been capable of doing what Gruen did. He goes beyond just the creation of a beautiful building. In playing on people and suggesting what they ought to do, he is a master. (…) his architecture is clean - hardly architecture, no flights of fancy. But when you get hold of its complexity, you've got something beyond the design... You can't say there's someone like him. Architecture is lucky to have him as an architect." Philip Johnson. Article in Fortune Review. 1962. The Document of the thesis closes with Gruen's vision of realizing a tour through the different chapters of his essential book, Shopping towns USA: The Planning of Shopping Centers. It’s mere index turns out to be a monument to the process of the gestation of the Mall. The book, simply acted in its basic structure as a silent witness, as the canonical reference for the contemporary Malls. The Fourth Chapter of the Document of the thesis is a recapitulation of the previous work, which synthesizes the concepts of function and style related to the Shopping Center, and clearly defines how they are defined so we can conclude that we have found an architectural new type in the panorama of the architectural discipline. Therefore, the Conclusion of the thesis integrates this development in a theoretical body of references that relate to an architectural specific and particular type, which receives the singularity of the Shopping Center as an architectural independent phenomenon as it has tried to demonstrate from the beginning of the work. To conclude, as a result of the integrative process and the development of the theoretical body of references, the essential characteristics of the order and concept of the architectural typology form the existence of a new architecture; architecture never before defined as such, in the theoretical typology of the discipline. A theoretical typology for a new architecture is proposed throughout the discussed research and forms a conclusion of the different parameters that have been analysed. As a building complex, from the study of the essential characteristics and of the perceptible constants, the typology is more clearly defined and thus, becomes a useful tool and precedent for the consideration of the discipline. The thesis then justifies how the building complex known as Shopping Center constitutes a new type of architectural typology.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis trata sobre la construcción modular ligera, dentro del contexto de la eficiencia energética y de cara a los conceptos de nZEB (near Zero Energy Building) y NZEB (Net Zero Energy Building) que se manejan en el ámbito europeo y específicamente dentro del marco regulador de la Directiva 2010/31 UE. En el contexto de la Unión Europea, el sector de la edificación representa el 40% del total del consumo energético del continente. Asumiendo la necesidad de reducir este consumo se han planteado, desde los organismos de dirección europeos, unos objetivos (objetivos 20-20-20) para hacer más eficiente el parque edificatorio. Estos objetivos, que son vinculantes en términos de legislación, comprometen a todos los estados miembros a conseguir la meta de reducción de consumo y emisiones de GEI (Gases de Efecto Invernadero) antes del año 2020. Estos conceptos de construcción modular ligera (CML) y eficiencia energética no suelen estar asociados por el hecho de que este tipo de construcción no suele estar destinada a un uso intensivo y no cuenta con unos cerramientos con niveles de aislamiento de acuerdo a las normativas locales o códigos de edificación de cada país. El objetivo de nZEB o NZEB, e incluso Energy Plus, según sea el caso, necesariamente (y así queda establecido en las normativas), dependerá no sólo de la mejora de los niveles de aislamiento de los edificios, sino también de la implementación de sistemas de generación renovables, independientemente del tipo de sistema constructivo con el que se trabaje e incluso de la tipología edificatoria. Si bien es cierto que los niveles de industrialización de la sociedad tecnológica actual han alcanzado varias de las fases del proceso constructivo - sobre todo en cuanto a elementos compositivos de los edificios- también lo es el hecho de que las cotas de desarrollo conseguidas en el ámbito de la construcción no llegan al nivel de evolución que se puede apreciar en otros campos de las ingenierías como la aeronáutica o la industria del automóvil. Aunque desde finales del siglo pasado existen modelos y proyectos testimoniales de construcción industrializada ligera (CIL) e incluso ya a principios del siglo XX, ejemplos de construcción modular ligera (CML), como la Casa Voisin, la industrialización de la construcción de edificios no ha sido una constante progresiva con un nivel de comercialización equiparable al de la construcción masiva y pesada. Los términos construcción industrializada, construcción prefabricada, construcción modular y construcción ligera, no siempre hacen referencia a lo mismo y no siempre son sinónimos entre sí. Un edificio puede ser prefabricado y no ser modular ni ligero y tal es el caso, por poner un ejemplo, de la construcción con paneles de hormigón prefabricado. Lo que sí es una constante es que en el caso de la construcción modular ligera, la prefabricación y la industrialización, casi siempre vienen implícitas en muchos ejemplos históricos y actuales. Con relación al concepto de eficiencia energética (nZEB o incluso NZEB), el mismo no suele estar ligado a la construcción modular ligera y/o ligera industrializada; más bien se le ve unido a la idea de cerramientos masivos con gran inercia térmica propios de estándares de diseño como el Passivhaus; y aunque comúnmente a la construcción ligera se le asocian otros conceptos que le restan valor (corta vida útil; función y formas limitadas, fuera de todo orden estético; limitación en los niveles de confort, etc.), los avances que se van alcanzando en materia de tecnologías para el aprovechamiento de la energía y sistemas de generación renovables, pueden conseguir revertir estas ideas y unificar el criterio de eficiencia + construcción modular ligera. Prototipos y proyectos académicos– como el concurso Solar Decathlon que se celebra desde el año 2002 promovido por el DOE (Departamento de Energía de los Estados Unidos), y que cuenta con ediciones europeas como las de los años 2010 y 2012, replantean la idea de la construcción industrializada, modular y ligera dentro del contexto de la eficiencia energética, con prototipos de viviendas de ± 60m2, propuestos por las universidades concursantes, y cuyo objetivo es alcanzar y/o desarrollar el concepto de NZEB (Net Zero Energy Building) o edificio de energía cero. Esta opción constructiva no sólo representa durabilidad, seguridad y estética, sino también, rapidez en la fabricación y montaje, además de altas prestaciones energéticas como se ha podido demostrar en las sucesivas ediciones del Solar Decathlon. Este tipo de iniciativas de desarrollo de tecnologías constructivas, no sólo apuntan a la eficiencia energética sino al concepto global de energía neta, Energía plus o cero emisiones de CO2. El nivel de emisiones por la fabricación y puesta en obra de los materiales de construcción depende, en muchos casos, no solo de la propia naturaleza del material, sino también de la cantidad de recursos utilizados para producir una unidad de medida determinada (kg, m3, m2, ml, etc). En este sentido podría utilizarse, en muchos casos, el argumento válido de que a menos peso, y a menos tamaño, menos emisiones globales de gases de efecto invernadero y menos contaminación. Para el trabajo de investigación de esta tesis se han tomado como referencias válidas para estudio, prototipos tanto de CML (Modular 3D) como de CIL (panelizado y elementos 2D), dado que para los fines de análisis de las prestaciones energéticas de los materiales de cerramiento, ambos sistemas son equiparables. Para poder llegar a la conclusión fundamental de este trabajo de tesis doctoral - que consiste en demostrar la viabilidad tecnológica/ industrial que supone la combinación de la eficiencia energética y la construcción modular ligera - se parte del estudio del estado de la técnica ( desde la selección de los materiales y los posibles procesos de industrialización en fábrica, hasta su puesta en obra, funcionamiento y uso, bajo los conceptos de consumo cero, cero emisiones de carbono y plus energético). Además -y con un estado de la técnica que identifica la situación actual- se llevan a cabo pruebas y ensayos con un prototipo a escala natural y células de ensayo, para comprobar el comportamiento de los elementos compositivos de los mismos, frente a unas condicionantes climáticas determinadas. Este tipo de resultados se contrastan con los obtenidos mediante simulaciones informáticas basadas en los mismos parámetros y realizadas en su mayoría mediante métodos simplificados de cálculos, validados por los organismos competentes en materia de eficiencia energética en la edificación en España y de acuerdo a la normativa vigente. ABSTRACT This thesis discusses lightweight modular construction within the context of energy efficiency in nZEB (near Zero Energy Building) and NZEB (Net Zero Energy Building) both used in Europe and, specifically, within the limits of the regulatory framework of the EU Directive 2010/31. In the European Union the building sector represents 40% of the total energy consumption of the continent. Due to the need to reduce this consumption, European decision-making institutions have proposed aims (20-20-20 aims) to render building equipment more efficient. These aims are bound by law and oblige all member States to endeavour to reduce consumption and GEI emissions before the year 2020. Lightweight modular construction concepts and energy efficiency are not generally associated because this type of building is not normally meant for intensive use and does not have closures with insulation levels which fit the local regulations or building codes of each country. The objective of nZEB or NZEB and even Energy Plus, depending on each case, will necessarily be associated (as established in the guidelines) not only with the improvement of insulation levels in buildings, but also with the implementation of renewable systems of generation, independent of the type of building system used and of the building typology. Although it is true that the levels of industrialisation in the technological society today have reached several of the building process phases - particularly in the composite elements of buildings - it is also true that the quotas of development achieved in the area of construction have not reached the evolutionary levelfound in other fields of engineering, such as aeronautics or the automobile industry. Although there have been models and testimonial projects of lightweight industrialised building since the end of last century, even going back as far as the beginning of the XX century with examples of lightweight modular construction such as the Voisin House, industrialisation in the building industry has not been constant nor is its comercialisation comparable to massive and heavy construction. The terms industrialised building, prefabricated building, modular building and lightweight building, do not always refer to the same thing and they are not always synonymous. A building can be prefabricated yet not be modular or lightweight. To give an example, this is the case of building with prefabricated concrete panels. What is constant is that, in the case of lightweight modular construction, prefabrication and industrialisation are almost always implicit in many historical and contemporary examples. Energy efficiency (nZEB or even NZEB) is not normally linked to lightweight modular construction and/or industrialised lightweight; rather, it is united to the idea of massive closureswith high thermal inertia typical of design standards such as the Passive House; and although other concepts that subtract value from it are generally associated with lightweight building (short useful life, limited forms and function, inappropriate toany aesthetic pattern; limitation in comfort levels, etc.), the advances being achieved in technology for benefitting from energy and renewable systems of generation may well reverse these ideas and unify the criteria of efficiency + lightweight modular construction. Academic prototypes and projects - such as the Solar Decathlon competition organised by the US Department of Energy and celebrated since 2002, with its corresponding European events such as those held in 2010 and 2012, place a different slant on the idea of industrialised, modular and lightweight building within the context of energy efficiency, with prototypes of homes measuring approximately 60m2, proposed by university competitors, whose aim is to reach and/or develop the NZEB concept, or the zero energy building. This building option does not only signify durability, security and aesthetics, but also fast manufacture and assembly. It also has high energy benefits, as has been demonstrated in successive events of the Solar Decathlon. This type of initiative for the development of building technologies, does not only aim at energy efficiency, but also at the global concept of net energy, Energy Plus and zero CO2 emissions. The level of emissions in the manufacture and introduction of building materials in many cases depends not only on the inherent nature of the material, but also on the quantity of resources used to produce a specific unit of measurement (kg, m3, m2, ml, etc.). Thus in many cases itcould be validly arguedthat with less weight and smaller size, there will be fewer global emissions of greenhouse effect gases and less contamination. For the research carried out in this thesis prototypes such as the CML (3D Module) and CIL (panelled and elements) have been used as valid study references, becauseboth systems are comparablefor the purpose of analysing the energy benefits of closure materials. So as to reach a basic conclusion in this doctoral thesis - that sets out to demonstrate the technological/industrial viability of the combination of energy efficiency and lightweight modular construction - the departure point is the study of the state of the technique (from the selection of materials and the possible processes of industrialisation in manufacture, to their use on site, functioning and use, respecting the concepts of zero consumption, zero emissions of carbon and Energy Plus). Moreover, with the state of the technique identifying the current situation, tests and practices have been carried out with a natural scale prototype and test cells so as to verify the behaviour of the composite elements of these in certain climatic conditions. These types of result are contrasted with those obtained through computer simulation based on the same parameters and done, principally, using simplified methods of calculation, validated by institutions competent in energy efficiency in Spanish building and in line with the rules in force.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente conjunto de documentos tiene como finalidad la realización del proyecto: “Parque Eólico Off Shore en Arteixo (A Coruña)”. Nuestro parque eólico se sitúa en la provincia de A Coruña (Galicia, España) más concretamente en la fachada litoral norte perteneciente a la Costa da Morte. La ubicación pertenece al término municipal de Arteixo, frente a punta Regueiro. El futuro gallego en el ámbito de la energía eólica es muy esperanzador, debido fundamentalmente a la irrupción de la eólica offshore. Galicia, por tradición, siempre ha basado su economía en la pesca, la cual dependía de dos factores: mar y viento. Por lo tanto, Galicia dispone de las capacidades, conocimientos y experiencia para hacer de su pasado una ventaja de cara al futuro eólico offshore

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las redes del futuro, incluyendo las redes de próxima generación, tienen entre sus objetivos de diseño el control sobre el consumo de energía y la conectividad de la red. Estos objetivos cobran especial relevancia cuando hablamos de redes con capacidades limitadas, como es el caso de las redes de sensores inalámbricos (WSN por sus siglas en inglés). Estas redes se caracterizan por estar formadas por dispositivos de baja o muy baja capacidad de proceso y por depender de baterías para su alimentación. Por tanto la optimización de la energía consumida se hace muy importante. Son muchas las propuestas que se han realizado para optimizar el consumo de energía en este tipo de redes. Quizás las más conocidas son las que se basan en la planificación coordinada de periodos de actividad e inactividad, siendo una de las formas más eficaces para extender el tiempo de vida de las baterías. La propuesta que se presenta en este trabajo se basa en el control de la conectividad mediante una aproximación probabilística. La idea subyacente es que se puede esperar que una red mantenga la conectividad si todos sus nodos tienen al menos un número determinado de vecinos. Empleando algún mecanismo que mantenga ese número, se espera que se pueda mantener la conectividad con un consumo energético menor que si se empleara una potencia de transmisión fija que garantizara una conectividad similar. Para que el mecanismo sea eficiente debe tener la menor huella posible en los dispositivos donde se vaya a emplear. Por eso se propone el uso de un sistema auto-adaptativo basado en control mediante lógica borrosa. En este trabajo se ha diseñado e implementado el sistema descrito, y se ha probado en un despliegue real confirmando que efectivamente existen configuraciones posibles que permiten mantener la conectividad ahorrando energía con respecto al uso de una potencia de transmisión fija. ABSTRACT. Among the design goals for future networks, including next generation networks, we can find the energy consumption and the connectivity. These two goals are of special relevance when dealing with constrained networks. That is the case of Wireless Sensors Networks (WSN). These networks consist of devices with low or very low processing capabilities. They also depend on batteries for their operation. Thus energy optimization becomes a very important issue. Several proposals have been made for optimizing the energy consumption in this kind of networks. Perhaps the best known are those based on the coordinated planning of active and sleep intervals. They are indeed one of the most effective ways to extend the lifetime of the batteries. The proposal presented in this work uses a probabilistic approach to control the connectivity of a network. The underlying idea is that it is highly probable that the network will have a good connectivity if all the nodes have a minimum number of neighbors. By using some mechanism to reach that number, we hope that we can preserve the connectivity with a lower energy consumption compared to the required one if a fixed transmission power is used to achieve a similar connectivity. The mechanism must have the smallest footprint possible on the devices being used in order to be efficient. Therefore a fuzzy control based self-adaptive system is proposed. This work includes the design and implementation of the described system. It also has been validated in a real scenario deployment. We have obtained results supporting that there exist configurations where it is possible to get a good connectivity saving energy when compared to the use of a fixed transmission power for a similar connectivity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La obra de Emilio Pérez Piñero que se desarrolla entre los años 1961 y 1972 año en el que muere en un accidente de tráfico volviendo de Figueras, se centra principalmente en artefactos desplegables y desmontables, ejecutando prototipos que en el presente trabajo se han dividido en dos grupos; la cúpula reticular y la infraestructura. No pudo por tanto acudir al Congreso de 1972 de la UIA a recoger el premio Auguste Perret a la innovación tecnológica, que en años anteriores habían recibido Félix Candela, Jean Prouvé, Hans Scharoun o Frei Otto, y que en aquella ocasión tuvo que recoger su viuda. Parámetros como el de la movilidad, indeterminación, intercambiabilidad, obsolescencia y otros que se analizan en el presente trabajo, aparecen a lo largo de toda su obra ya que muchos de sus artefactos están ubicados en no-lugares y tienen un carácter itinerante y por tanto se hace indispensable su rápido montaje y desmontaje, que unas veces se resuelve mediante la desmontabilidad y otras con la plegabilidad de éstos. Aunque pueda parecer Piñero una figura autárquica, lo cierto es que durante la década donde concentra su trabajo se produce una explosión en torno a al arquetipo que será denominado de forma genérica `artefacto´, ligado conceptualmente a los parámetros que aquí se definen. Entendemos artefacto como objeto material realizado por una o varias personas para cumplir una función, es sinónimo de máquina y aparato y deriva de las palabras latinas ars o artis (técnica) y facto (hecho), para designar a los objetos cuya fabricación requiere alguna destreza. El término latino `ars´ engloba a las técnicas y a las artes, lo que no ocurre con el término castellano arte que deriva de él. Los movimientos utópicos que comparte la década con Piñero, utilizan el arquetipo infraestructural, ligero y high tech, para a través de una arquitectura más ligada a la ciencia ficción, realizar una crítica al Movimiento Moderno institucionalizado, todos ellos comparten cierta obsesión por la movilidad, ligada ésta a la idea de espacio flexible, dinámico, nómada. Este concepto de neo-nomadismo, que representa un habitar dinámico, aglutina las nuevas formas de vivir donde la movilidad social y geográfica son habituales. El nomadismo, por otra parte se entiende como sinónimo de democracia y libertad. La arquitectura pasa de ser pesada, estática, permanente a ser un elemento dinámico en continuo movimiento. A veces con connotaciones biológicas se asimilan los artefactos a organismos vivos y les confieren dichas propiedades de crecimiento y autonomía energética, acumulándose en torno a megaestructuras, donde quedan `enchufados´. En este intento de dotar movilidad a lo inmueble, se buscan estructuras vivas y modificables que crecen en una asimilación de las leyes naturales utilizando los parámetros de metamorfosis, simbiosis y cambio. Estos movimientos de vanguardia tienen también ciertas connotaciones políticas y sociales basadas en la libertad y la movilidad y reniegan del consumismo institucionalizado, de la arquitectura como instrumento de consumo, como objeto de usar en la cultura de masas. El carácter político de la autogestión, de la customización como parámetro proyectual, de la autosuficiencia energética, que anticipa la llegada de la crisis energética del año 1973. Objeto de este trabajo será relacionar los conceptos que aparecen fuertemente en el entorno de la década de los años sesenta del siglo XX, en el trabajo de Emilio Pérez Piñero. Parámetros encontrados como conceptos en los grupos de vanguardia y utopía a su vez fuertemente influenciados por las figuras del ingeniero Richard Buckminster Fuller y del arquitecto Konrad Wachsmann. Se analizará que posible influencia tiene la obra de Fuller, principalmente el prototipo denominado cúpula reticular, en la obra de Pérez Piñero y sus coetáneos analizando sus pensamientos teóricos en torno a parámetros como la energía, principalmente en las teorías relativas a Synergetics. El término inventado por Richard B. Fuller es una contracción de otro más largo que en inglés agrupa tres palabras; synergetic-energetic geometry. La definición de sinergia es la cooperación, es decir es el resultado de la acción conjunta de dos o más causas, pero con un efecto superior a la suma de estas causas. El segundo término, energetics geometry, que traducido sería geometría energética hace referencia en primer lugar a la geometría; ya que desarrolla el sistema de referencia que utiliza la naturaleza para construir sus sistemas y en segundo lugar a la energía; ya que además debe ser el sistema que establezca las relaciones más económicas utilizando el mínimo de energía. Por otro lado se analiza la repercusión del prototipo denominado Infraestructura, término acuñado por Yona Friedman y basado estructuralmente y conceptualmente en los desarrollos sobre grandes estructuras de Konrad Wachsmann. El arquitecto alemán divulga su conocimiento en seminarios impartidos por todo el mundo como el que imparte en Tokio y se denomina Wachsmann´s Seminar donde participan algunos de los componentes del grupo Metabolista que sorprenderán al mundo con sus realizaciones en la exposición de Osaka de 1970. El intervalo temporal entre 1961 hasta 1972 hace referencia a la horquilla donde Pérez Piñero realiza su obra arquitectónica, que comienza en 1961 cuando gana el concurso convocado en Londres por la UIA (Unión Internacional de Arquitectos) con el proyecto conocido como Teatro Ambulante, hasta 1972 que es cuando fallece volviendo de Figueras donde está realizando dos encargos de Salvador Dalí; la cubrición del escenario del futuro Teatro-Museo Salvador Dalí y la Vidriera Hipercúbica que debía cerrar la boca de tal escenario. Bajo el título de `Artefactos energéticos. De Fuller a Piñero (1961-1972)´, se presenta esta Tesis doctoral, que tiene la intención de vincular la obra de Emilio Pérez Piñero con la de las neo vanguardias producidas por una serie de arquitectos que operan en el ámbito internacional. Estas vinculaciones se producen de una forma general, donde a través de una serie de estrategias según la metodología que posteriormente se describe se buscan relaciones de la obra del autor español con algunos de los movimientos más significativos que aparecen en dicha década y de manera específica estableciendo relaciones con las obras y pensamientos de los autores que pertenecen a estos movimientos y donde estas relaciones se hacen más evidentes. El objeto del presente trabajo es analizar y explicar la obra del arquitecto Emilio Pérez Piñero, que espacialmente se localiza en el territorio español, desde el punto de vista de estos movimientos para posteriormente poder determinar si existen puntos en común y si el arquitecto español no solo comparte la década temporalmente sino también conceptualmente y por tanto utiliza el ideario que utilizan sus coetáneos que forman parte de las neovanguardias de los años sesenta de siglo XX. ABSTRACT ABSTRACT The Work of Emilio Perez Piñero was developed between the years 1961 and 1972 when he died in a car accident coming back from Figueres, where he was building a geodesic dome to close the building that enclose the Dali’s museum. All his Work is mainly centered in artifact that could be collapsible and removable, taking the two prototypes that are described in this work as a recurrent element in all his creation. These are the reticular dome and the infrastructure that are very influenced by the work from Richard B. Fuller and Konrad Wachsmann. Emilio Pérez Piñero could not receive the Auguste Perret Prize in 1972 awarded by the UIA that years before have received architects as Felix Candela, Jean Prouvé, Hans Scharoun or Frei Otto, and this time Pérez Piñero´s wife will accept it because of his death. Parameters like mobility, changeability, expendability, indetermination and others appear currently in his Work. All the inventions that Piñero had been patented and all of the artifacts that he created are usually located in no-places, because they do have a shifting identity. This kind of building has to be quickly set on site, and this problem has to be solved in term of foldability or demounting. In the decade where his work focuses, an explosion has occurred around this archetype to be generally called artifact that is usually linked to mobility. We understand artifact as a material object made by one or more people to work in a particular way. It is sometimes equated with the terms machinery and apparatus and it is derived from the Latin word `ars´ or `artis´, what means techniques and `facto´ (fact). And we use this term to refer to objects whose manufacture requires the same skill, in fact the Latin word `ars´ covers the techniques and arts, which does not occur with the Castillan term `arte´ that derives from it and means only art. The term neo-nomadic is a relatively new name used for a dynamic life, commonly referred to new forms of life where social and geographical mobility are common. On the other hand nomadic could be understood as a synonymous for democracy and freedom. The architecture is not going to be hard and static anymore but a dynamic element in the move. The Neo-avant-garde movement that shares the decade with Piñero uses this infrastructural archetype, which is light and high-tech, to criticize the institutionalized Modern Movement through architecture linked to science fiction. They all share an obsession with mobility, a concept that is connected to the terms `dynamic´, `nomadic´, `flexibile´, etc. Sometimes, with biological connotations, the utopian assimilate the artifacts to living organisms and give them these properties of growth and energy autonomy, and they apparently grow around megastructures where they are plugged. In this attempt to provide mobility to the inertness, living structures and possibility of change are sought in order to make them grow like a living organism and to assimilate the natural laws of growth. According to a definition from architecture provided by Fernández- Galiano who calls it `exosomatic artifact´, he understand architecture as artifact of the human environment that regulates natural energy flows and channels the energy stored in fuels for the benefit of living beings that inhabit. It is also true that during the sixties a new environmental awareness in public opinion is formed and that is due to the exploitation and disproportionate use of energy resources, acceleration of technological processes and mass consumption. Consequently a new concept is born: energy autonomy, it is very close to rational use of natural energy. Such a concept will be culturally assimilated with the requirement of independence not only in the management but also in the building construction until we arrive at energy autonomy. The individuals become energy consumer, which in turn can enter the energy produced in the system to `life in an eco-mode way´. The objectives of this research are analyzing all of these parameters and concepts that are coming into view in the surrounding of the decade and relate them with the Work of Pérez Piñero. Terms strongly present in the avant-garde movements around the decade, a young architect’s generation strongly influenced by Richard B. Fuller and Konrad Wachsmann. However, it will be analyzed how important the influence of Buckminster Fuller's Work was and his theoretical text about energy on the Work of Pérez Piñero and his fellows of the decade. The term Synergetic was invented by Fuller and came from the words synergy and energetic geometry. Synergy is the cooperation or interaction of two or more agents to produce a greater effect than the sum of their separate effects. Energetic geometry is related to the geometries that the Nature is using to build their construction but always using low energy consumption. On the other hand, the influences from Wachsmann around the prototype called Infrastructure have been analyzed. The German architect has developed knowledge around huge structures that he has spread all around the world through seminars that he has been conducted. One of these was the Wachsmann´s seminar in Tokyo, where same of the members of the Metabolist group were taking part of. Later these young architects will surprise the world with his artifacts at the World Exposition in Osaka in 1970. Between 1961 and 1972 Pérez Piñero produced his architectural work. It began in 1961 when he received the first prize with his project Mobile Theatre in the competition organized by the UIA in London. In 1972 the Auguste Perret Prize was granted by the UIA too. He could not accept it because he died before in a car accident when he was coming from Figueres, when he was designing two projects for Dali. With the title `Energetic Artifacts. From Fuller to Piñero (1961- 1972)´, this thesis relates the Work of Emilio Pérez Piñero with the neo avant-garde made by a young architects’ generation who is sharing the time with him. Several strategies have been used to formed relationships between them. They are described in the present work to set up a method that allows us to relate the work and ideas of the architects of the neo avant-garde with the ones from Piñero. This work is intended to analyze and explained the work of Pérez Piñero from the point of view of the international architects’ generation who is operating at the same time and finally to determinate if Piñero is not sharing the time with them but the concepts, ideas and architectural parameters.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El principal motivo de implantar un parque de generación eléctrica de estas características es responder a una necesidad palpable en el ámbito mundial como es el crecimiento en la demanda energética unido a un agotamiento de los recursos petrolíferos. En el caso de Marruecos, solo genera el 3% de la energía actual que consume, y se espera que la demanda siga creciendo hasta 2030 a un ritmo de un 7 - 8% anual, por lo que la búsqueda de nuevas fuentes de energía se convierte en necesidad imprescindible