822 resultados para Shifting
Resumo:
In media and content industries, the main effect of digitization has been a radical transformation of information formats and displays. In fact, these formats and displays are responsible for the shifting perceptions of users-consumers concerning how they relate and interact with information. However, in spite of its considerable relevance, the bidirectional relationship between formats/displays and users has been seldom studied. This brief paper presents an overview of the evolution of displays and devices in some key media and content subsectors-publishing and distribution of books and newspapers- with the main objective of hinting at the next steps in their evolution.
Resumo:
Análisis de los sistemas de mitigación del riesgo de tráfico en autopistas de peaje en diferentes países de Latinoamérica. This paper presents a cross-country analysis of traffic risk allocation in road concessions of Latin America. It shows that some countries such as Chile, Colombia, and Peru have been greatly concerned with mitigating traffic risk, either by putting into practice public guarantees, implementing flexible term concessions, or through availability payment concessions; whereas other countries such as Mexico and Brazil have assigned traffic risk to the private concessionaire by using fixed-term concession contracts without any traffic guarantees. Based on an analysis of data from 1990 to 2010, the paper finds that shifting traffic risk from the concessionaire to the government or users was not confined to the riskiest projects, as one might expect. The analysis also suggests that the implementation of traffic risk mitigation mechanisms in Latin American toll roads has not been very successful in reducing renegotiation rates or in increasing the number of bidders in the tenders
Resumo:
En el artículo se discute el papel de la energía hidroeléctrica en el marco del sistema eléctrico español, donde existe una elevada penetración de energías no gestionables con una tendencia clara a aumentar en los próximos años. El desarrollo de nuevas centrales hidroeléctricas se basará probablemente en centrales reversibles. La energía hidroeléctrica es una tecnología madura y eficiente para el almacenamiento de energía a gran escala y contribuye por tanto de manera decisiva a la integración de fuentes renovables no gestionables. Los beneficios obtenidos con la operación punta-valle pueden ser insuficientes para compensar el coste de una nueva central. Sin embargo, los ingresos obtenidos pueden incrementarse sustancialmente mediante su participación en los servicios de ajuste del sistema. Ello requeriría un diseño apropiado del mercado eléctrico. La contribución de las centrales hidráulicas reversibles al balance producción-consumo puede extenderse a las horas valle utilizando, bien bombeo en velocidad variable o bien una configuración de cortocircuito hidráulico. La necesidad de mitigar los efectos hidrológicos aguas abajo de las centrales hidroeléctricas puede introducir algunas restricciones en la operación que limitaría de algún modo los servicios descritos más arriba. Sin embargo, cabe esperar que los efectos ambientales provocados por las centrales hidráulicas reversibles sean significativamente menores. In this paper the role of hydropower in electric power systems is discussed, in the framework of the Spanish system, where a high penetration of intermittent power sources exists, showing a clear trend to increase in next years. The development of new hydro power facilities will be likely based on pumped storage hydro power plants. Hydropower is a mature and efficient technology for large-scale energy storage and therefore represents a key contribution for the integration of intermittent power sources, such as wind or photovoltaic. The benefits obtained from load shifting may be insufficient to compensate the costs of a new plant. However, the obtained revenues can significantly increase through its contribution to providing ancillary services. This would require an appropriate design of the electricity market. The contribution of pumped storage hydro power plants to balancing services can be extended to off-peak hours, using either variable speed pumping or the hydraulic shortcircuit configuration. The need to mitigate hydrological effects downstream of hydro plants may introduce some operational constraints which could limit to some extent the services described above. However environmental effects caused by pumped storage hydro power plants are expected to be significantly smaller.
Resumo:
In this work a novel point diffraction interferometer based on a variable liquid crystal wave plate (LCWP) has been implemented. The LCWP consists of a 3x3 cm2 monopixel cell with parallel alignment. The monopixel cell was manufactured such that the electrode covers the entire surface except in a centered circular area of 50 μm of diameter. This circle acts as a point perturbation which diffracts the incident wave front giving rise to a spherical reference wave. By applying a voltage to the LCWP we can change the phase of the wave front that passes through the monopixel, except at the center. Phase shifting techniques are used in order to calculate the amplitude and phase distribution of the object wave front. The system allows a digital hologram to be obtained, and by using the Fresnel diffraction integral it is possible to digitally reconstruct the different planes that constitute the three dimensional object.
Resumo:
En los últimos años, y a la luz de los retos a los que se enfrenta la sociedad, algunas voces están urgiendo a dejar atrás los paradigmas modernos —eficiencia y rendimiento— que sustentan a las llamadas prácticas sostenibles, y están alentando a repensar, en el contexto de los cambios científicos y culturales, una agenda termodinámica y ecológica para la arquitectura. La cartografía que presenta esta tesis doctoral se debe de entender en este contexto. Alineándose con esta necesidad, se esfuerza por dar a este empeño la profundidad histórica de la que carece. De este modo, el esfuerzo por dotar a la arquitectura de una agenda de base científica, se refuerza con una discusión cultural sobre el progresivo empoderamiento de las ideas termodinámicas en la arquitectura. Esta cartografía explora la historia de las ideas termodinámicas en la arquitectura desde el principio del siglo XX hasta la actualidad. Estudia, con el paso de los sistemas en equilibrio a los alejados del equilibrio como trasfondo, como las ideas termodinámicas han ido infiltrándose gradualmente en la arquitectura. Este esfuerzo se ha planteado desde un doble objetivo. Primero, adquirir una distancia crítica respecto de las prácticas modernas, de modo que se refuerce y recalibre el armazón intelectual y las herramientas sobre las que se está apoyando esta proyecto termodinámico. Y segundo, desarrollar una aproximación proyectual sobre la que se pueda fundamentar una agenda termodinámica para la arquitectura, asunto que se aborda desde la firme creencia de que es posible una re-descripción crítica de la realidad. De acuerdo con intercambios de energía que se dan alrededor y a través de un edificio, esta cartografía se ha estructurado en tres entornos termodinámicos, que sintetizan mediante un corte transversal la variedad de intercambios de energía que se dan en la arquitectura: -Cualquier edificio, como constructo espacial y material inmerso en el medio, intercambia energía mediante un flujo bidireccional con su contexto, definiendo un primer entorno termodinámico al que se denomina atmósferas territoriales. -En el interior de los edificios, los flujos termodinámicos entre la arquitectura y su ambiente interior definen un segundo entorno termodinámico, atmósferas materiales, que explora las interacciones entre los sistemas materiales y la atmósfera interior. -El tercer entorno termodinámico, atmosferas fisiológicas, explora los intercambios de energía que se dan entre el cuerpo humano y el ambiente invisible que lo envuelve, desplazando el objeto de la arquitectura desde el marco físico hacia la interacción entre la atmósfera y los procesos somáticos y percepciones neurobiológicas de los usuarios. A través de estos tres entornos termodinámicos, esta cartografía mapea aquellos patrones climáticos que son relevantes para la arquitectura, definiendo tres situaciones espaciales y temporales sobre las que los arquitectos deben actuar. Estudiando las conexiones entre la atmósfera, la energía y la arquitectura, este mapa presenta un conjunto de ideas termodinámicas disponibles —desde los parámetros de confort definidos por la industria del aire acondicionado hasta las técnicas de acondicionamiento pasivo— que, para ser efectivas, necesitan ser evaluadas, sintetizadas y recombinadas a la luz de los retos de nuestro tiempo. El resultado es un manual que, mediando entre la arquitectura y la ciencia, y a través de este relato histórico, acorta la distancia entre la arquitectura y la termodinámica, preparando el terreno para la definición de una agenda termodinámica para el proyecto de arquitectura. A este respecto, este mapa se entiende como uno de los pasos necesarios para que la arquitectura recupere la capacidad de intervenir en la acuciante realidad a la que se enfrenta. ABSTRACT During the last five years, in the light of current challenges, several voices are urging to leave behind the modern energy paradigms —efficiency and performance— on which the so called sustainable practices are relying, and are posing the need to rethink, in the light of the scientific and cultural shifts, the thermodynamic and ecological models for architecture. The historical cartography this PhD dissertation presents aligns with this effort, providing the cultural background that this endeavor requires. The drive to ground architecture on a scientific basis needs to be complemented with a cultural discussion of the history of thermodynamic ideas in architecture. This cartography explores the history of thermodynamic ideas in architecture, from the turn of the 20th century until present day, focusing on the energy interactions between architecture and atmosphere. It surveys the evolution of thermodynamic ideas —the passage from equilibrium to far from equilibrium thermodynamics— and how these have gradually empowered within design and building practices. In doing so, it has posed a double-objective: first, to acquire a critical distance with modern practices which strengthens and recalibrates the intellectual framework and the tools in which contemporary architectural endeavors are unfolding; and second, to develop a projective approach for the development a thermodynamic agenda for architecture and atmosphere, with the firm belief that a critical re-imagination of reality is possible. According to the different systems which exchange energy across a building, the cartography has been structured in three particular thermodynamic environments, providing a synthetic cross-section of the range of thermodynamic exchanges which take place in architecture: -Buildings, as spatial and material constructs immersed in the environment, are subject to a contiuous bidirectional flow of energy with its context, defining a the first thermodynamic environment called territorial atmospheres. -Inside buildings, the thermodynamic flow between architecture and its indoor ambient defines a second thermodynamic environment, material atmospheres, which explores the energy interactions between the indoor atmosphere and its material systems. -The third thermodynamic environment, physiological atmospheres, explores the energy exchanges between the human body and the invisible environment which envelopes it, shifting design drivers from building to the interaction between the atmosphere and the somatic processes and neurobiological perceptions of users. Through these three thermodynamic environments, this cartography maps those climatic patterns which pertain to architecture, providing three situations on which designers need to take stock. Studying the connections between atmosphere, energy and architecture this map presents, not a historical paradigm shift from mechanical climate control to bioclimatic passive techniques, but a range of available thermodynamic ideas which need to be assessed, synthesized and recombined in the light of the emerging challenges of our time. The result is a manual which, mediating between architecture and science, and through this particular historical account, bridges the gap between architecture and thermodynamics, paving the way to a renewed approach to atmosphere, energy and architecture. In this regard this cartography is understood as one of the necessary steps to recuperate architecture’s lost capacity to intervene in the pressing reality of contemporary societies.
Resumo:
The objective of the present paper is to show the effect of uncommon exit arrangement in the evacuation process of narrow-body airliners, from the point of view of emergency evacuation certification, using the ETSIA model. Two main possibilities will be considered: large longitudinal shifting of the main embarking/disembarking doors; and suppression of some over-the-wing exits.
Resumo:
The expansion of agricultural land is responsible for most tropical deforestation. Historically, smallholder farming and shifting cultivation has been reported as the main agent of deforestation. However, the increasing global demand for food in recent years has greatly boosted the development of medium and large-scale commercial agriculture which is nowadays causing the majority of tropical forest cover loss, particularly in Latin America.
Resumo:
Hoy en día asistimos a un creciente interés por parte de la sociedad hacia el cuidado de la salud. Esta afirmación viene apoyada por dos realidades. Por una parte, el aumento de las prácticas saludables (actividad deportiva, cuidado de la alimentación, etc.). De igual manera, el auge de los dispositivos inteligentes (relojes, móviles o pulseras) capaces de medir distintos parámetros físicos como el pulso cardíaco, el ritmo respiratorio, la distancia recorrida, las calorías consumidas, etc. Combinando ambos factores (interés por el estado de salud y disponibilidad comercial de dispositivos inteligentes) están surgiendo multitud de aplicaciones capaces no solo de controlar el estado actual de salud, también de recomendar al usuario cambios de hábitos que lleven hacia una mejora en su condición física. En este contexto, los llamados dispositivos llevables (weareables) unidos al paradigma de Internet de las cosas (IoT, del inglés Internet of Things) permiten la aparición de nuevos nichos de mercado para aplicaciones que no solo se centran en la mejora de la condición física, ya que van más allá proponiendo soluciones para el cuidado de pacientes enfermos, la vigilancia de niños o ancianos, la defensa y la seguridad, la monitorización de agentes de riesgo (como bomberos o policías) y un largo etcétera de aplicaciones por llegar. El paradigma de IoT se puede desarrollar basándose en las existentes redes de sensores inalámbricos (WSN, del inglés Wireless Sensor Network). La conexión de los ya mencionados dispositivos llevables a estas redes puede facilitar la transición de nuevos usuarios hacia aplicaciones IoT. Pero uno de los problemas intrínsecos a estas redes es su heterogeneidad. En efecto, existen multitud de sistemas operativos, protocolos de comunicación, plataformas de desarrollo, soluciones propietarias, etc. El principal objetivo de esta tesis es realizar aportaciones significativas para solucionar no solo el problema de la heterogeneidad, sino también de dotar de mecanismos de seguridad suficientes para salvaguardad la integridad de los datos intercambiados en este tipo de aplicaciones. Algo de suma importancia ya que los datos médicos y biométricos de los usuarios están protegidos por leyes nacionales y comunitarias. Para lograr dichos objetivos, se comenzó con la realización de un completo estudio del estado del arte en tecnologías relacionadas con el marco de investigación (plataformas y estándares para WSNs e IoT, plataformas de implementación distribuidas, dispositivos llevables y sistemas operativos y lenguajes de programación). Este estudio sirvió para tomar decisiones de diseño fundamentadas en las tres contribuciones principales de esta tesis: un bus de servicios para dispositivos llevables (WDSB, Wearable Device Service Bus) basado en tecnologías ya existentes tales como ESB, WWBAN, WSN e IoT); un protocolo de comunicaciones inter-dominio para dispositivos llevables (WIDP, Wearable Inter-Domain communication Protocol) que integra en una misma solución protocolos capaces de ser implementados en dispositivos de bajas capacidades (como lo son los dispositivos llevables y los que forman parte de WSNs); y finalmente, la tercera contribución relevante es una propuesta de seguridad para WSN basada en la aplicación de dominios de confianza. Aunque las contribuciones aquí recogidas son de aplicación genérica, para su validación se utilizó un escenario concreto de aplicación: una solución para control de parámetros físicos en entornos deportivos, desarrollada dentro del proyecto europeo de investigación “LifeWear”. En este escenario se desplegaron todos los elementos necesarios para validar las contribuciones principales de esta tesis y, además, se realizó una aplicación para dispositivos móviles por parte de uno de los socios del proyecto (lo que contribuyó con una validación externa de la solución). En este escenario se usaron dispositivos llevables tales como un reloj inteligente, un teléfono móvil con sistema operativo Android y un medidor del ritmo cardíaco inalámbrico capaz de obtener distintos parámetros fisiológicos del deportista. Sobre este escenario se realizaron diversas pruebas de validación mediante las cuales se obtuvieron resultados satisfactorios. ABSTRACT Nowadays, society is shifting towards a growing interest and concern on health care. This phenomenon can be acknowledged by two facts: first, the increasing number of people practising some kind of healthy activity (sports, balanced diet, etc.). Secondly, the growing number of commercial wearable smart devices (smartwatches or bands) able to measure physiological parameters such as heart rate, breathing rate, distance or consumed calories. A large number of applications combining both facts are appearing. These applications are not only able to monitor the health status of the user, but also to provide recommendations about routines in order to improve the mentioned health status. In this context, wearable devices merged with the Internet of Things (IoT) paradigm enable the proliferation of new market segments for these health wearablebased applications. Furthermore, these applications can provide solutions for the elderly or baby care, in-hospital or in-home patient monitoring, security and defence fields or an unforeseen number of future applications. The introduced IoT paradigm can be developed with the usage of existing Wireless Sensor Networks (WSNs) by connecting the novel wearable devices to them. In this way, the migration of new users and actors to the IoT environment will be eased. However, a major issue appears in this environment: heterogeneity. In fact, there is a large number of operating systems, hardware platforms, communication and application protocols or programming languages, each of them with unique features. The main objective of this thesis is defining and implementing a solution for the intelligent service management in wearable and ubiquitous devices so as to solve the heterogeneity issues that are presented when dealing with interoperability and interconnectivity of devices and software of different nature. Additionally, a security schema based on trust domains is proposed as a solution to the privacy problems arising when private data (e.g., biomedical parameters or user identification) is broadcasted in a wireless network. The proposal has been made after a comprehensive state-of-the-art analysis, and includes the design of a Wearable Device Service Bus (WDSB) including the technologies collected in the requirement analysis (ESB, WWBAN, WSN and IoT). Applications are able to access the WSN services regardless of the platform and operating system where they are running. Besides, this proposal also includes the design of a Wearable Inter-Domain communication Protocols set (WIDP) which integrates lightweight protocols suitable to be used in low-capacities devices (REST, JSON, AMQP, CoAP, etc...). Furthermore, a security solution for service management based on a trustworthy domains model to deploy security services in WSNs has been designed. Although the proposal is a generic framework for applications based on services provided by wearable devices, an application scenario for testing purposes has been included. In this validation scenario it has been presented an autonomous physical condition performance system, based on a WSN, bringing the possibility to include several elements in an IoT scenario: a smartwatch, a physiological monitoring device and a smartphone. In summary, the general objective of this thesis is solving the heterogeneity and security challenges arising when developing applications for WSNs and wearable devices. As it has been presented in the thesis, the solution proposed has been successfully validated in a real scenario and the obtained results were satisfactory.
Resumo:
The ability to accurately observe the Earth's carbon cycles from space gives scientists an important tool to analyze climate change. Current space-borne Integrated-Path Differential Absorption (IPDA) Iidar concepts have the potential to meet this need. They are mainly based on the pulsed time-offlight principle, in which two high energy pulses of different wavelengths interrogate the atmosphere for its transmission properties and are backscattered by the ground. In this paper, feasibility study results of a Pseudo-Random Single Photon Counting (PRSPC) IPDA lidar are reported. The proposed approach replaces the high energy pulsed source (e.g. a solidstate laser), with a semiconductor laser in CW operation with a similar average power of a few Watts, benefiting from better efficiency and reliability. The auto-correlation property of Pseudo-Random Binary Sequence (PRBS) and temporal shifting of the codes can be utilized to transmit both wavelengths simultaneously, avoiding the beam misalignment problem experienced by pulsed techniques. The envelope signal to noise ratio has been analyzed, and various system parameters have been selected. By restricting the telescopes field-of-view, the dominant noise source of ambient light can be suppressed, and in addition with a low noise single photon counting detector, a retrieval precision of 1.5 ppm over 50 km along-track averaging could be attained. We also describe preliminary experimental results involving a negative feedback Indium Gallium Arsenide (InGaAs) single photon avalanche photodiode and a low power Distributed Feedback laser diode modulated with PRBS driven acoustic optical modulator. The results demonstrate that higher detector saturation count rates will be needed for use in future spacebourne missions but measurement linearity and precision should meet the stringent requirements set out by future Earthobserving missions.
Resumo:
Hoy en día, ya no se puede pasar por alto la necesidad de una agricultura climáticamente más inteligente para los 500 millones de pequeños agricultores del mundo (Wheeler, 2013). Estos representan aproximadamente el 60 % de la agricultura mundial y proporcionan hasta el 80 % de los alimentos en los países en vías de desarrollo, los pequeños agricultores gestionan vastas extensiones de tierra y lamentablemente incluyen los grupos con mayor proporción de personas en estado de inseguridad alimentaria. El cambio climático está transformando el contexto para la agricultura en pequeña escala. Durante siglos, los pequeños agricultores desarrollaron la capacidad de adaptarse a los cambios ambientales y la variabilidad del clima, pero la velocidad y la intensidad del cambio climático está superando su capacidad de respuesta. Si no se cambia la manera que tenemos de lidiar con el cambio climático, tanto en acciones locales como globales, es muy probable que las personas rurales de entornos vulnerables tengan que adaptarse a un calentamiento global promedio de 4 °C por encima de los niveles preindustriales para el año 2100. Esta alza de las temperaturas aumentará aún más la incertidumbre y provocará desastres naturales como las sequías, la erosión del suelo, la pérdida de biodiversidad y la escasez agua sean mucho más frecuentes. Uno de los factores más importantes para los pequeños agricultores es que ya no pueden depender de los promedios históricos, por lo que es más difícil para ellos para planificar y gestionar la producción debido a los cambios en los patrones climáticos. Algunos de los principales cultivos de cereales (trigo, arroz, maíz, etc.) han alcanzado su umbral de tolerancia al calor y un aumento de la temperatura en torno a 1,5-2 °C podría ser muy perjudicial. Estos efectos a corto plazo podrían ser agravados por otros a medio y largo plazo, los que se refieren al impacto socioeconómico en términos de oportunidades y estabilidad política. El cambio climático está haciendo que el desarrollo de la pequeña agricultura resulte mucho más caro. A nivel de proyectos, los programas resistentes al clima tienen, normalmente, unos costos iniciales más altos, tanto de diseño como de implementación. Por ejemplo, es necesario incluir gastos adicionales en infraestructura, operación y mantenimiento; desarrollo de nuevas capacidades y el intercambio de conocimientos en torno al cambio climático. También se necesita mayor inversión para fortalecer las instituciones frente a los nuevos retos que propone el cambio climático, o generar información que pueda ser de escala reducida y con enfoques que beneficien a la comunidad, el cambio climático es global pero los efectos son locales. Es, por tanto, el momento de redefinir la relación entre agricultura y medio ambiente, ya que se hace cada vez más necesario buscar mejores y más eficientes maneras para responder al cambio climático. Es importante señalar que la respuesta al cambio climático no significa reinventar todo lo que se ha aprendido sobre el desarrollo, significa aplicar un esfuerzo renovado para hacer frente a los cambios en el trabajo de cooperación al desarrollo de una manera más sistemática y más amplia. Una respuesta coherente al cambio climático requiere que la comunidad internacional reconozca la necesidad de aumentar el apoyo financiero para la adaptación así como un mayor énfasis en proporcionar soluciones diseñadas para aumentar la resiliencia1 de los pequeños agricultores a las crisis relacionadas con el clima. Con el fin de responder a algunos de los desafíos mencionados anteriormente, esta investigación pretende contribuir a fortalecer las capacidades de los pequeños productores, aquellos que actualmente están la primera línea frente a los desafíos del cambio climático, promoviendo un desarrollo que tenga un impacto positivo en sus medios de vida. La tesis se compone de cuatro capítulos. El primero define y analiza el marco teórico de las interacciones entre el cambio climático y el impacto en los proyectos de desarrollo rural, especialmente los que tienen por objetivo mejorar la seguridad alimentaria de los pequeños productores. En ese mismo capítulo, se presenta una revisión global de la financiación climática, incluyendo la necesidad de asignar suficientes recursos para la adaptación. Con el fin de lograr una mayor eficacia e impacto en los proyectos de desarrollo, la investigación desarrolla una metodología para integrar actividades de adaptación al cambio climático, presentada en el segundo capítulo. Esta metodología fue implementada y validada durante el periodo 2012-14, trabajando directamente con diferentes equipos gubernamentales en diez proyectos del Fondo Internacional de Desarrollo Agrícola ). El tercero presenta, de manera detallada, la aplicación de la metodología a los estudios de caso de Bolivia y Nicaragua, así como un resumen de las principales conclusiones en la aplicación de los ocho países restantes. Finalmente, en el último capítulo se presentan las conclusiones y un esbozo de futuras líneas de investigación. Actualmente, el tema de la sostenibilidad ambiental y el cambio climático está ganando terreno en la agenda de desarrollo. Es por ello que se alumbra esta investigación, para que a través de los resultados obtenidos y la implementación de la metodología propuesta, sirva como herramienta estratégica para la planificación y la gestión operativa a la hora de integrar iniciativas de adaptación en los proyectos de desarrollo rural. ABSTRACT The need for climate-smart agriculture for the world’s 500 million smallholder farms cannot be overlooked: they account for 60 per cent of global agriculture, provide up to 80 per cent of food in developing countries, manage vast areas of land and make up the largest share of the developing world’s undernourished. Climate change is transforming the context for smallholder agriculture. Over centuries smallholders have developed the capacity to adapt to environmental change and climate variability, but the speed and intensity of climate change is outpacing the speed of historically autonomous actions. In the absence of a profound step-change in local and global action on climate change, it is Increasingly likely that poor rural people would need to contend with an average global warming of 4 degrees above pre-industrial levels by 2100, if not sooner. Such substantial climatic change will further increase uncertainty and exacerbate weather –related disasters, droughts, biodiversity loss, and land and water scarcity. Perhaps most significantly for smallholder farmers, they can no longer rely on historical averages, making it harder for them to plan and manage production when planting seasons and weather patterns are shifting. The major cereal crops (wheat, rice, maize, etc.) are at their heat tolerance threshold and with a 1.5-2°C temperature increase could collapse. These “first-round” effects will be compounded by second-round socio-economic impacts in terms of economic opportunities and political stability. Climate change is making the development of smallholder agriculture more expensive. At project level, climate-resilient programmes typically have higher up-front design and implementation costs – e.g. infrastructure costs and initially increased asset management, operation and maintenance, more capacity-building and knowledge sharing, strengthening institutions, greater project development costs (downscaled data generation and community-based approaches), and greater costs from enhancing cross sectorial and stakeholders collaboration. Consequently it’s time to redefine the relationship between agriculture and environment as we need to look better and more efficient ways to respond to climate change. It is important to note that responding to climate change does not mean to throwing out or reinventing everything that has been learnt about development. It means a renewed effort to tackle wider and well-known development changes in a more systematic way. A coherent response to climate change requires acknowledge of the need to increase the financial support for adaptation and a continued emphasis on provided solutions designed to increase the resilience of smallholders and poor communities to shocks, which are weather related. In order to respond to some of the challenges mentioned before, this research aims to contribute to strengthen the capacities of the smallholders and to promote a development that will positively impact in the rural livelihoods of the most vulnerable smallholders farmers; those who currently are in the first line facing the challenges of climate change. The thesis has four chapters. Chapter one describes and analyses the theoretical framework of the interactions between climate change and the impact on rural development projects, especially those aimed at improving the food security of smallholders producers. In this chapter a comprehensive review of climate financing is presented, including the need to allocate sufficient resources for adaptation. In order to achieve greater effectiveness and impact on development projects, the research develops in the second chapter a methodology to integrate adaptation activities for climate change. This methodology was implemented and validated during the 2012-14 period, working directly with various government teams in ten projects of the International Fund for Agricultural Development (IFAD). The third chapter presents in detail the application of the methodology to the case studies of Bolivia and Nicaragua, as well as a summary of the main conclusions of its implementation in the remaining eight countries. The final chapter exposes the main conclusions and future research topics. At a time when environmental sustainability and climate change issues are gaining more attention, the research and obtained results through the implementation of the model methodology proposed, can be considered a strategic tool for planning and operational management to integrate adaptation initiatives in rural development projects. The use of the proposed methodology will boost incentives to scale up climate resilience programmes and integrate adaptation to climate change into wider smallholder development programmes.
Resumo:
En la actualidad, y en consonancia con la tendencia de “sostenibilidad” extendida a todos los campos y parcelas de la ciencia, nos encontramos con un área de estudio basado en la problemática del inevitable deterioro de las estructuras existentes, y la gestión de las acciones a realizar para mantener las condiciones de servicio de los puentes y prolongar su vida útil. Tal y como se comienza a ver en las inversiones en los países avanzados, con una larga tradición en el desarrollo de sus infraestructuras, se muestra claramente el nuevo marco al que nos dirigimos. Las nuevas tendencias van encaminadas cada vez más a la conservación y mantenimiento, reduciéndose las partidas presupuestarias destinadas a nuevas actuaciones, debido a la completa vertebración territorial que se ha ido instaurando en estos países, entre los que España se encuentra. Este nutrido patrimonio de infraestructuras viarias, que cuentan a su vez con un importante número de estructuras, hacen necesarias las labores de gestión y mantenimiento de los puentes integrantes en las mismas. Bajo estas premisas, la tesis aborda el estado de desarrollo de la implementación de los sistemas de gestión de puentes, las tendencias actuales e identificación de campos por desarrollar, así como la aplicación específica a redes de carreteras de escasos recursos, más allá de la Red Estatal. Además de analizar las diversas metodologías de formación de inventarios, realización de inspecciones y evaluación del estado de puentes, se ha enfocado, como principal objetivo, el desarrollo de un sistema específico de predicción del deterioro y ayuda a la toma de decisiones. Este sistema, adicionalmente a la configuración tradicional de criterios de formación de bases de datos de estructuras e inspecciones, plantea, de forma justificada, la clasificación relativa al conjunto de la red gestionada, según su estado de condición. Eso permite, mediante técnicas de optimización, la correcta toma de decisiones a los técnicos encargados de la gestión de la red. Dentro de los diversos métodos de evaluación de la predicción de evolución del deterioro de cada puente, se plantea la utilización de un método bilineal simplificado envolvente del ajuste empírico realizado y de los modelos markovianos como la solución más efectiva para abordar el análisis de la predicción de la propagación del daño. Todo ello explotando la campaña experimenta realizada que, a partir de una serie de “fotografías técnicas” del estado de la red de puentes gestionados obtenidas mediante las inspecciones realizadas, es capaz de mejorar el proceso habitual de toma de decisiones. Toda la base teórica reflejada en el documento, se ve complementada mediante la implementación de un Sistema de Gestión de Puentes (SGP) específico, adaptado según las necesidades y limitaciones de la administración a la que se ha aplicado, en concreto, la Dirección General de Carreteras de la Junta de Comunidades de Castilla-La Mancha, para una muestra representativa del conjunto de puentes de la red de la provincia de Albacete, partiendo de una situación en la que no existe, actualmente, un sistema formal de gestión de puentes. Tras un meditado análisis del estado del arte dentro de los Capítulos 2 y 3, se plantea un modelo de predicción del deterioro dentro del Capítulo 4 “Modelo de Predicción del Deterioro”. De la misma manera, para la resolución del problema de optimización, se justifica la utilización de un novedoso sistema de optimización secuencial elegido dentro del Capítulo 5, los “Algoritmos Evolutivos”, en sus diferentes variantes, como la herramienta matemática más correcta para distribuir adecuadamente los recursos económicos dedicados a mantenimiento y conservación de los que esta administración pueda disponer en sus partidas de presupuesto a medio plazo. En el Capítulo 6, y en diversos Anexos al presente documento, se muestran los datos y resultados obtenidos de la aplicación específica desarrollada para la red local analizada, utilizando el modelo de deterioro y optimización secuencial, que garantiza la correcta asignación de los escasos recursos de los que disponen las redes autonómicas en España. Se plantea con especial interés la implantación de estos sistemas en la red secundaria española, debido a que reciben en los últimos tiempos una mayor responsabilidad de gestión, con recursos cada vez más limitados. Finalmente, en el Capítulo 7, se plantean una serie de conclusiones que nos hacen reflexionar de la necesidad de comenzar a pasar, en materia de gestión de infraestructuras, de los estudios teóricos y los congresos, hacia la aplicación y la práctica, con un planteamiento que nos debe llevar a cambios importantes en la forma de concebir la labor del ingeniero y las enseñanzas que se imparten en las escuelas. También se enumeran las aportaciones originales que plantea el documento frente al actual estado del arte. Se plantean, de la misma manera, las líneas de investigación en materia de Sistemas de Gestión de Puentes que pueden ayudar a refinar y mejorar los actuales sistemas utilizados. In line with the development of "sustainability" extended to all fields of science, we are faced with the inevitable and ongoing deterioration of existing structures, leading nowadays to the necessary management of maintaining the service conditions and life time extension of bridges. As per the increased amounts of money that can be observed being spent in the countries with an extensive and strong tradition in the development of their infrastructure, the trend can be clearly recognized. The new tendencies turn more and more towards conservation and maintenance, reducing programmed expenses for new construction activities, in line with the already wellestablished territorial structures, as is the case for Spain. This significant heritage of established road infrastructure, consequently containing a vast number of structures, imminently lead to necessary management and maintenance of the including bridges. Under these conditions, this thesis focusses on the status of the development of the management implementation for bridges, current trends, and identifying areas for further development. This also includes the specific application to road networks with limited resources, beyond the national highways. In addition to analyzing the various training methodologies, inventory inspections and condition assessments of bridges, the main objective has been the development of a specific methodology. This methodology, in addition to the traditional system of structure and inspection database training criteria, sustains the classification for the entire road network, according to their condition. This allows, through optimization techniques, for the correct decision making by the technical managers of the network. Among the various methods for assessing the evolution forecast of deterioration of each bridge, a simplified bilinear envelope adjustment made empirical method and Markov models as the most effective solution to address the analysis of predicting the spread of damage, arising from a "technical snapshot" obtained through inspections of the condition of the bridges included in the investigated network. All theoretical basis reflected in the document, is completed by implementing a specific Bridges Management System (BMS), adapted according to the needs and limitations of the authorities for which it has been applied, being in this case particularly the General Highways Directorate of the autonomous region of Castilla-La Mancha, for a representative sample of all bridges in the network in the province of Albacete, starting from a situation where there is currently no formal bridge management system. After an analysis of the state of the art in Chapters 2 and 3, a new deterioration prediction model is developed in Chapter 4, "Deterioration Prediction Model". In the same way, to solve the optimization problem is proposed the use of a singular system of sequential optimization elected under Chapter 5, the "Evolutionary Algorithms", the most suitable mathematical tool to adequately distribute the economic resources for maintenance and conservation for mid-term budget planning. In Chapter 6, and in the various appendices, data and results are presented of the developed application for the analyzed local network, from the optimization model, which guarantees the correct allocation of scarce resources at the disposal of authorities responsible for the regional networks in Spain. The implementation of these systems is witnessed with particular interest for the Spanish secondary network, because of the increasing management responsibility, with decreasing resources. Chapter 7 presents a series of conclusions that triggers to reconsider shifting from theoretical studies and conferences towards a practical implementation, considering how to properly conceive the engineering input and the related education. The original contributions of the document are also listed. In the same way, the research on the Bridges Management System can help evaluating and improving the used systematics.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
La “Actuación en la Crisis”, objetivo principal de esta tesis, trata de establecer y concretar los procedimientos y apoyos desde tierra y a bordo de los buques, tanto técnicos como operacionales, a seguir por el Capitán y tripulación de un buque después de un accidente, en especial cuando el buque tiene un riesgo importante de hundimiento o necesidad de abandono. La aparición de este concepto es relativamente reciente, es decir desde el año 1995, después de los estudios y propuestas realizados, por el Panel de Expertos de IMO, como consecuencia del hundimiento del buque de pasaje y carga rodada, Estonia, en el que perdieron la vida más de 850 personas a finales de Septiembre de 1994. Entre las propuestas recomendadas y aceptadas por los gobiernos en la Conferencia Internacional SOLAS 1995, figuraba este concepto novedoso, que luego fue adoptado de una forma generalizada para todos los tipos de buques, que hasta entonces sólo disponían de documentos dispersos y a veces contradictorios para la actuación en estos momentos de peligro, que dio lugar a un profundo tratamiento de este problema, que iba a afectar a los buques, tanto en los conceptos y parámetros de proyecto, como a la propia operación del buque. La tesis desarrolla los fundamentos, estado del arte, implantación y consecuencias sobre la configuración y explotación del buque, que han dado lugar a una serie de documentos, que se han incluido en diversos Convenios Internacionales, Códigos y otros documentos de obligada aplicación en la industria naval generados en IMO (SOLAS, Retorno Seguro a Puerto, Plano y Libro de Control de Averías, ISM). La consecuencia más novedosa e interesante de este concepto ha sido la necesidad de disponer cada compañía explotadora del buque, de un servicio importante de “apoyo en la crisis”, que ha dado lugar a implantar un “servicio de emergencia especial”, disponible las 24 horas del día y 365 de año que ofrecen las Sociedades de Clasificación. El know-how de los accidentes que tratan estos servicios, hacen que se puedan establecer ciertas recomendaciones, que se centran, en que el buque tenga, por sus propios medios, una posibilidad de aumentar el KM después de una avería, la garantía de la resistencia estructural adecuada y el aumento del tiempo de hundimiento o el tiempo de mantenimiento a flote (otro tipo de averías vinculadas con la maquinaria, equipo o protección y lucha contra incendios, no son objeto de tesis). Las conclusiones obtenidas, son objeto de discusión especialmente en IACS e IMO, con el fin de establecer las aplicaciones pertinentes, que permitan dar al buque una mayor seguridad. Como objetivo principal de esta tesis es establecer estos puntos de mejora consecuencia de esta actuación en la crisis, con la aportación de varias soluciones que mejorarían los problemas mencionados para los tres tipos de buques que consideramos más importantes (pasaje, petroleros y bulkcarriers) La tesis recorre, desde el principio en 1995, la evolución de esta actuación en la crisis, hasta el momento actual., los puntos básicos que se establecen, que van muy de la mano de la llamada “cultura de seguridad”, objetivo nacido durante los años 90, con el fin de implantar una filosofía distinta para abordar el tratamiento de la seguridad del buque, a la que se venía aplicando hasta el momento, en donde se contemplaba tratar el tema de forma singular y específica para cada caso. La nueva filosofía, trataba de analizar el problema, desde un aspecto global y por tanto horizontal, realizando un estudio exhaustivo de las consecuencias que tendría la aplicación de una nueva medida correctora, en los restantes equipos y sistemas del buque., relativos al proyecto, configuración, operación y explotación del buque. Se describen de manera sucinta las profundas investigaciones a que dio lugar todo lo anterior, estando muchas de ellas, vinculadas a grandes proyectos europeos. La mayor parte de estos proyectos fueron subvencionados por la Comunidad Económica Europea durante la primera década del siglo actual. Dentro de estas investigaciones, donde hay que destacar la participación de todos los agentes del sector marítimo europeo, se hacen imprescindibles la utilización de dos herramientas novedosas para nuestro sector, como son el “Estudio de Riesgos” y la “Evaluación de la Seguridad”, más conocida técnicamente por su nombre ingles “Safety Assessment”, cuyos principios también son incluidos en la tesis. Además se especifican las bases sobre las que se establecen la estabilidad intacta y en averías, con nuevos conceptos, no tratados nunca hasta entonces, como la “altura crítica de agua en cubierta” para la cual el buque se hundiría sin remisión, “estado de la mar” en la que se puede encontrar el buque averiado, el cálculo del tiempo de hundimiento, u otros aspectos como el corrimiento de la carga, o bien el tratamiento de los problemas dinámicos en el nuevo “Código de Estabilidad Intacta”. Con respecto a la resistencia estructural, especialmente el estudio de la “resistencia estructural después de la avería”, que tiene en cuenta el estado de la mar en la que se encontraría el buque afectado. Se analizan los tipos de buques mencionados uno por uno y se sacan, como aportación fundamental de esta tesis, separadamente, las acciones y propuestas a aplicar a estos buques. En primer lugar, las relativas al proyecto y configuración del buque y en segundo lugar, las de operación, explotación y mantenimiento, con el fin de acometer, con garantías de éxito, la respuesta a la ayuda en emergencia y la solución a la difícil situación que pueden tener lugar en condiciones extremas. Para ver el efecto de algunas de las propuestas que se incluyen, se realizan y aplican concretamente, a un buque de pasaje de carga rodada, a un petrolero y a un bulkcarrier, para demostrar el mejor comportamiento de estos buques en situación de emergencia. Para ello se han elegido un buque ejemplo para cada tipo, efectuándose los cálculos de estabilidad y resistencia longitudinal y comparar la situación, en la que quedaría el buque averiado, antes y después de la avería. La tesis se completa con una estadística real de buques averiados de cada uno de estos tres tipos, distinguiendo el tipo de incidente y el número de los buques que lo han sufrido, considerándose como más importantes los incidentes relacionados con varadas, colisiones y fuego resumiéndose lo más relevante de esta aportación también importante de esta tesis. ABSTRACT The "Response in an emergency" is the main objective of this thesis, it seeks to establish and define procedures for technical and operational support onboard and shore, to be followed by the captain and crew on of a ship after an accident, especially when the ship has a significant risk of sinking or a need to abandon it. The emergence of this concept is relatively recent, in 1995, after studies and proposals made by the Panel of Experts IMO, following the sinking of the “Estonia” vessel, where more than 850 people died in late September 1994. In the International Convention SOLAS 1995, among the recommended proposals and accepted regulations, this new concept was included, which was later adopted for all types of ships which until then had only scattered some documents, sometimes including contradictory actions in emergency situations. This led to a profound treatment of this problem, which would affect the vessels in both the concepts and design parameters, as to the proper operation of the vessel. The thesis develops the foundations, state of the art, implementation and consequences on the design and operation of the vessel, this has led to a series of Circulars and Regulations included in several International Codes and Conventions issued by IMO which are required to be complied with (SOLAS Safe Return to Port, Damage Control Plan and Booklet, ISM). The most novel and interesting consequence of this concept has been the need for every company operating the ship to have a shore based support service in emergency situations which has led to implement special emergency services offered by Class Societies which are available 24 hours a day, 365 days per year. The know-how of these services dealing with all types of accidents can establish certain recommendations, which focus on the ship capability to increase the KM after damage. It can also be determined adequate structural strength and the increase of the capsizing time or time afloat (other types of damages associated with the machinery, equipment or firefighting, are not the subject of this thesis). The conclusions are discussed especially in IACS and IMO, in order to establish appropriate applications to improve the security of the vessels. The main objective of this thesis is to establish actions to improve emergency actions, resulting from different responses in the crisis, with the contribution of several solutions that improve the problems mentioned for three types of ships that we consider most important (passenger vessels, tankers and bulk carriers) The thesis runs from the beginning in 1995 to date, the evolution of the response on the crisis. The basics established during the 90s with the "safety culture" in order to implement a different philosophy to address the treatment of the safety of the ship, which was being previously implemented, as something singular and specific to each case. The new philosophy tried to analyse the problem from a global perspective, doing an exhaustive study of the consequences of the implementation of the new regulation in the ship systems and equipment related to the design, configuration and operation of the vessel. Extensive investigations which led to the above are described, many of them being linked to major European projects. Most of these projects were funded by the European Union during the first decade of this century. Within these investigations, which it must be highlighted the participation of all players in the European maritime sector, a necessity to use two new tools for our industry, such as the "Risk Assessment" and "Safety Assessment" whose principles are also included in the thesis. The intact and damage stability principles are established including new concepts, never treated before, as the "critical height of water on deck" for which the ship would sink without remission, "sea state" where the damaged vessel can be found, calculation of capsizing time, or other aspects such cargo shifting or treatment of dynamic problems in the new Intact Stability Code in development. Regarding the structural strength, it has to be especially considered the study of the "residual strength after damage", which takes into account the state of the sea where the vessel damaged can be found. Ship types mentioned are analysed one by one, as a fundamental contribution of this thesis, different actions and proposals are established to apply to these types of vessels. First, those ones relating to the design and configuration of the vessel and also the ones related to the operation and maintenance in order to support successfully responses to emergency situations which may occur in extreme situations. Some of the proposals are applied specifically to a RoRo passenger ship, an oil tanker and a bulkcarrier, to demonstrate the improved performance of these vessels damaged. An example for each type vessel has been chosen, carrying out stability and longitudinal strength calculations comparing the situation of the ship before and after damage. The thesis is completed with incidents statics for each of these three types, distinguishing the type of incident and the number of ships having it. The most important incidents considered are the ones related to groundings, collisions and fire being this other relevant contribution of this thesis.
Resumo:
La obra de Emilio Pérez Piñero que se desarrolla entre los años 1961 y 1972 año en el que muere en un accidente de tráfico volviendo de Figueras, se centra principalmente en artefactos desplegables y desmontables, ejecutando prototipos que en el presente trabajo se han dividido en dos grupos; la cúpula reticular y la infraestructura. No pudo por tanto acudir al Congreso de 1972 de la UIA a recoger el premio Auguste Perret a la innovación tecnológica, que en años anteriores habían recibido Félix Candela, Jean Prouvé, Hans Scharoun o Frei Otto, y que en aquella ocasión tuvo que recoger su viuda. Parámetros como el de la movilidad, indeterminación, intercambiabilidad, obsolescencia y otros que se analizan en el presente trabajo, aparecen a lo largo de toda su obra ya que muchos de sus artefactos están ubicados en no-lugares y tienen un carácter itinerante y por tanto se hace indispensable su rápido montaje y desmontaje, que unas veces se resuelve mediante la desmontabilidad y otras con la plegabilidad de éstos. Aunque pueda parecer Piñero una figura autárquica, lo cierto es que durante la década donde concentra su trabajo se produce una explosión en torno a al arquetipo que será denominado de forma genérica `artefacto´, ligado conceptualmente a los parámetros que aquí se definen. Entendemos artefacto como objeto material realizado por una o varias personas para cumplir una función, es sinónimo de máquina y aparato y deriva de las palabras latinas ars o artis (técnica) y facto (hecho), para designar a los objetos cuya fabricación requiere alguna destreza. El término latino `ars´ engloba a las técnicas y a las artes, lo que no ocurre con el término castellano arte que deriva de él. Los movimientos utópicos que comparte la década con Piñero, utilizan el arquetipo infraestructural, ligero y high tech, para a través de una arquitectura más ligada a la ciencia ficción, realizar una crítica al Movimiento Moderno institucionalizado, todos ellos comparten cierta obsesión por la movilidad, ligada ésta a la idea de espacio flexible, dinámico, nómada. Este concepto de neo-nomadismo, que representa un habitar dinámico, aglutina las nuevas formas de vivir donde la movilidad social y geográfica son habituales. El nomadismo, por otra parte se entiende como sinónimo de democracia y libertad. La arquitectura pasa de ser pesada, estática, permanente a ser un elemento dinámico en continuo movimiento. A veces con connotaciones biológicas se asimilan los artefactos a organismos vivos y les confieren dichas propiedades de crecimiento y autonomía energética, acumulándose en torno a megaestructuras, donde quedan `enchufados´. En este intento de dotar movilidad a lo inmueble, se buscan estructuras vivas y modificables que crecen en una asimilación de las leyes naturales utilizando los parámetros de metamorfosis, simbiosis y cambio. Estos movimientos de vanguardia tienen también ciertas connotaciones políticas y sociales basadas en la libertad y la movilidad y reniegan del consumismo institucionalizado, de la arquitectura como instrumento de consumo, como objeto de usar en la cultura de masas. El carácter político de la autogestión, de la customización como parámetro proyectual, de la autosuficiencia energética, que anticipa la llegada de la crisis energética del año 1973. Objeto de este trabajo será relacionar los conceptos que aparecen fuertemente en el entorno de la década de los años sesenta del siglo XX, en el trabajo de Emilio Pérez Piñero. Parámetros encontrados como conceptos en los grupos de vanguardia y utopía a su vez fuertemente influenciados por las figuras del ingeniero Richard Buckminster Fuller y del arquitecto Konrad Wachsmann. Se analizará que posible influencia tiene la obra de Fuller, principalmente el prototipo denominado cúpula reticular, en la obra de Pérez Piñero y sus coetáneos analizando sus pensamientos teóricos en torno a parámetros como la energía, principalmente en las teorías relativas a Synergetics. El término inventado por Richard B. Fuller es una contracción de otro más largo que en inglés agrupa tres palabras; synergetic-energetic geometry. La definición de sinergia es la cooperación, es decir es el resultado de la acción conjunta de dos o más causas, pero con un efecto superior a la suma de estas causas. El segundo término, energetics geometry, que traducido sería geometría energética hace referencia en primer lugar a la geometría; ya que desarrolla el sistema de referencia que utiliza la naturaleza para construir sus sistemas y en segundo lugar a la energía; ya que además debe ser el sistema que establezca las relaciones más económicas utilizando el mínimo de energía. Por otro lado se analiza la repercusión del prototipo denominado Infraestructura, término acuñado por Yona Friedman y basado estructuralmente y conceptualmente en los desarrollos sobre grandes estructuras de Konrad Wachsmann. El arquitecto alemán divulga su conocimiento en seminarios impartidos por todo el mundo como el que imparte en Tokio y se denomina Wachsmann´s Seminar donde participan algunos de los componentes del grupo Metabolista que sorprenderán al mundo con sus realizaciones en la exposición de Osaka de 1970. El intervalo temporal entre 1961 hasta 1972 hace referencia a la horquilla donde Pérez Piñero realiza su obra arquitectónica, que comienza en 1961 cuando gana el concurso convocado en Londres por la UIA (Unión Internacional de Arquitectos) con el proyecto conocido como Teatro Ambulante, hasta 1972 que es cuando fallece volviendo de Figueras donde está realizando dos encargos de Salvador Dalí; la cubrición del escenario del futuro Teatro-Museo Salvador Dalí y la Vidriera Hipercúbica que debía cerrar la boca de tal escenario. Bajo el título de `Artefactos energéticos. De Fuller a Piñero (1961-1972)´, se presenta esta Tesis doctoral, que tiene la intención de vincular la obra de Emilio Pérez Piñero con la de las neo vanguardias producidas por una serie de arquitectos que operan en el ámbito internacional. Estas vinculaciones se producen de una forma general, donde a través de una serie de estrategias según la metodología que posteriormente se describe se buscan relaciones de la obra del autor español con algunos de los movimientos más significativos que aparecen en dicha década y de manera específica estableciendo relaciones con las obras y pensamientos de los autores que pertenecen a estos movimientos y donde estas relaciones se hacen más evidentes. El objeto del presente trabajo es analizar y explicar la obra del arquitecto Emilio Pérez Piñero, que espacialmente se localiza en el territorio español, desde el punto de vista de estos movimientos para posteriormente poder determinar si existen puntos en común y si el arquitecto español no solo comparte la década temporalmente sino también conceptualmente y por tanto utiliza el ideario que utilizan sus coetáneos que forman parte de las neovanguardias de los años sesenta de siglo XX. ABSTRACT ABSTRACT The Work of Emilio Perez Piñero was developed between the years 1961 and 1972 when he died in a car accident coming back from Figueres, where he was building a geodesic dome to close the building that enclose the Dali’s museum. All his Work is mainly centered in artifact that could be collapsible and removable, taking the two prototypes that are described in this work as a recurrent element in all his creation. These are the reticular dome and the infrastructure that are very influenced by the work from Richard B. Fuller and Konrad Wachsmann. Emilio Pérez Piñero could not receive the Auguste Perret Prize in 1972 awarded by the UIA that years before have received architects as Felix Candela, Jean Prouvé, Hans Scharoun or Frei Otto, and this time Pérez Piñero´s wife will accept it because of his death. Parameters like mobility, changeability, expendability, indetermination and others appear currently in his Work. All the inventions that Piñero had been patented and all of the artifacts that he created are usually located in no-places, because they do have a shifting identity. This kind of building has to be quickly set on site, and this problem has to be solved in term of foldability or demounting. In the decade where his work focuses, an explosion has occurred around this archetype to be generally called artifact that is usually linked to mobility. We understand artifact as a material object made by one or more people to work in a particular way. It is sometimes equated with the terms machinery and apparatus and it is derived from the Latin word `ars´ or `artis´, what means techniques and `facto´ (fact). And we use this term to refer to objects whose manufacture requires the same skill, in fact the Latin word `ars´ covers the techniques and arts, which does not occur with the Castillan term `arte´ that derives from it and means only art. The term neo-nomadic is a relatively new name used for a dynamic life, commonly referred to new forms of life where social and geographical mobility are common. On the other hand nomadic could be understood as a synonymous for democracy and freedom. The architecture is not going to be hard and static anymore but a dynamic element in the move. The Neo-avant-garde movement that shares the decade with Piñero uses this infrastructural archetype, which is light and high-tech, to criticize the institutionalized Modern Movement through architecture linked to science fiction. They all share an obsession with mobility, a concept that is connected to the terms `dynamic´, `nomadic´, `flexibile´, etc. Sometimes, with biological connotations, the utopian assimilate the artifacts to living organisms and give them these properties of growth and energy autonomy, and they apparently grow around megastructures where they are plugged. In this attempt to provide mobility to the inertness, living structures and possibility of change are sought in order to make them grow like a living organism and to assimilate the natural laws of growth. According to a definition from architecture provided by Fernández- Galiano who calls it `exosomatic artifact´, he understand architecture as artifact of the human environment that regulates natural energy flows and channels the energy stored in fuels for the benefit of living beings that inhabit. It is also true that during the sixties a new environmental awareness in public opinion is formed and that is due to the exploitation and disproportionate use of energy resources, acceleration of technological processes and mass consumption. Consequently a new concept is born: energy autonomy, it is very close to rational use of natural energy. Such a concept will be culturally assimilated with the requirement of independence not only in the management but also in the building construction until we arrive at energy autonomy. The individuals become energy consumer, which in turn can enter the energy produced in the system to `life in an eco-mode way´. The objectives of this research are analyzing all of these parameters and concepts that are coming into view in the surrounding of the decade and relate them with the Work of Pérez Piñero. Terms strongly present in the avant-garde movements around the decade, a young architect’s generation strongly influenced by Richard B. Fuller and Konrad Wachsmann. However, it will be analyzed how important the influence of Buckminster Fuller's Work was and his theoretical text about energy on the Work of Pérez Piñero and his fellows of the decade. The term Synergetic was invented by Fuller and came from the words synergy and energetic geometry. Synergy is the cooperation or interaction of two or more agents to produce a greater effect than the sum of their separate effects. Energetic geometry is related to the geometries that the Nature is using to build their construction but always using low energy consumption. On the other hand, the influences from Wachsmann around the prototype called Infrastructure have been analyzed. The German architect has developed knowledge around huge structures that he has spread all around the world through seminars that he has been conducted. One of these was the Wachsmann´s seminar in Tokyo, where same of the members of the Metabolist group were taking part of. Later these young architects will surprise the world with his artifacts at the World Exposition in Osaka in 1970. Between 1961 and 1972 Pérez Piñero produced his architectural work. It began in 1961 when he received the first prize with his project Mobile Theatre in the competition organized by the UIA in London. In 1972 the Auguste Perret Prize was granted by the UIA too. He could not accept it because he died before in a car accident when he was coming from Figueres, when he was designing two projects for Dali. With the title `Energetic Artifacts. From Fuller to Piñero (1961- 1972)´, this thesis relates the Work of Emilio Pérez Piñero with the neo avant-garde made by a young architects’ generation who is sharing the time with him. Several strategies have been used to formed relationships between them. They are described in the present work to set up a method that allows us to relate the work and ideas of the architects of the neo avant-garde with the ones from Piñero. This work is intended to analyze and explained the work of Pérez Piñero from the point of view of the international architects’ generation who is operating at the same time and finally to determinate if Piñero is not sharing the time with them but the concepts, ideas and architectural parameters.
Resumo:
O objetivo dessa tese é aprofundar, a partir do discurso pós-colonial, uma crise na perspectiva teológica da libertação. Esta promoveu, na década de 1970, uma reviravolta nos estudos teológicos no terceiro mundo. Para tanto, leremos um conto de Gabriel García Márquez chamado “El ahogado más hermosodel mundo” (1968) analizando e avaliando as estratégias políticas e culturais ali inscritas. Para levar a frente tal avaliação é preciso ampliar o escopo de uma visão que divide o mundo em secular/religioso, ou em ideias/práticas religiosas e não religiosas, para dar passo a uma visão unificada que compreende a mundanalidade, tanto do que é catalogado como ‘religioso’ quanto do que se pretende ‘não religioso’. A teologia/ciências da religião, como discurso científico sobre a economia das trocas que lidam com visões, compreensões e práticas de mundo marcadas pelo reconhecimento do mistério que lhes é inerente, possuem um papel fundamental na compreensão, explicitação, articulação e disponibilização de tais forças culturais. A percepção de existirem elementos no conto que se relacionam com os símbolos sobre Jesus/Cristo nos ofereceu um vetor de análise; entretanto, não nos deixamos limitar pelos grilhões disciplinares que essa simbologia implica. Ao mesmo tempo, esse vínculo, compreendido desde a relação imperial/colonial inerente aos discursos e imagens sobre Jesus-Cristo, embora sem centralizar a análise, não poderia ficar intocado. Partimos para a construção de uma estrutura teórica que explicitasse os valores, gestos, e horizontes mundanos do conto, cristológicos e não-cristológicos, contribuindo assim para uma desestabilização dos quadros tradicionais a partir dos quais se concebem a teologia e as ciências da religião, a obra de García Márquez como literatura, e a geografia imperial/colonial que postula o realismo ficcional de territórios como “América Latina”. Abrimos, assim, um espaço de significação que lê o conto como uma “não-cristologia”, deslocando o aprisionamento disciplinar e classificatório dos elementos envolvidos na análise. O discurso crítico de Edward Said, Homi Bhabha e GayatriSpivak soma-se à prática teórica de teólogas críticas feministas da Ásia, da África e da América Latina para formular o cenário político emancipatório que denominaremos teologia crítica secular.