73 resultados para Tipo de cambio real
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.
Resumo:
Esta Tesis surgió ante la intensidad y verosimilitud de varias señales o “warnings” asociadas a políticas dirigidas a reducir el peso del petróleo en el sector energético, tanto por razones económicas, como geopolíticas, como ambientales. Como tal Tesis se consolidó al ir incorporando elementos novedosos pero esenciales en el mundo petrolífero, particularmente las “tecnologías habilitantes”, tanto de incidencia directa, como el “fracking” como indirecta, del cual es un gran ejemplo el Vehículo Eléctrico (puro). La Tesis se definió y estructuró para elaborar una serie de indagaciones y disquisiciones, que comportaran un conjunto de conclusiones que fueran útiles para las corporaciones energéticas. También para la comprensión de la propia evolución del sector y de sus prestaciones técnicas y económicas, de cara a dar el servicio que los usuarios finales piden. Dentro de las tareas analíticas y reflexivas de la Tesis, se acuñaron ciertos términos conceptuales para explicar más certeramente la realidad del sector, y tal es el caso del “Investment burden”, que pondera la inversión específica (€/W) requerida por una instalación, con la duración del período de construcción y los riesgos tanto tangibles como regulatorios. Junto a ello la Tesis propone una herramienta de estudio y prognosis, denominada “Market integrated energy efficiency”, especialmente aplicable a dicotomías. Tal es el caso del coche térmico, versus coche eléctrico. El objetivo es optimizar una determinada actividad energética, o la productividad total del sector. Esta Tesis propone varias innovaciones, que se pueden agrupar en dos niveles: el primero dentro del campo de la Energía, y el segundo dentro del campo de las corporaciones, y de manera especial de las corporaciones del sector hidrocarburos. A nivel corporativo, la adaptación a la nueva realidad será función directa de la capacidad de cada corporación para desarrollar y/o comprar las tecnologías que permitan mantener o aumentar cuota de mercado. Las conclusiones de la Tesis apuntan a tres opciones principalmente para un replanteamiento corporativo: - Diversificación energética - Desplazamiento geográfico - Beneficiándose de posibles nuevos nichos tecnológicos, como son: • En upstream: Recuperación estimulada de petróleo mediante uso de energías renovables • En downstream: Aditivos orientados a reducir emisiones • En gestión del cambio: Almacenamiento energético con fines operativos Algunas políticas energéticas siguen la tendencia de crecimiento cero de algunos países de la OCDE. No obstante, la realidad mundial es muy diferente a la de esos países. Por ejemplo, según diversas estimaciones (basadas en bancos de datos solventes, referenciados en la Tesis) el número de vehículos aumentará desde aproximadamente mil millones en la actualidad hasta el doble en 2035; mientras que la producción de petróleo sólo aumentará de 95 a 145 millones de barriles al día. Un aumento del 50% frente a un aumento del 100%. Esto generará un curioso desajuste, que se empezará a sentir en unos pocos años. Las empresas y corporaciones del sector hidrocarburos pueden perder el monopolio que atesoran actualmente en el sector transporte frente a todas las demás fuentes energéticas. Esa pérdida puede quedar compensada por una mejor gestión de todas sus capacidades y una participación más integrada en el mundo de la energía, buscando sinergias donde hasta ahora no había sino distanciamiento. Los productos petrolíferos pueden alimentar cualquier tipo de maquina térmica, como las turbinas Brayton, o alimentar reformadores para la producción masiva de H2 para su posterior uso en pilas combustible. El almacenamiento de productos derivados del petróleo no es ningún reto ni plantea problema alguno; y sin embargo este almacenamiento es la llave para resolver muchos problemas. Es posible que el comercio de petróleo se haga menos volátil debido a los efectos asociados al almacenamiento; pero lo que es seguro es que la eficiencia energética de los usos de ese petróleo será más elevada. La Tesis partía de ciertas amenazas sobre el futuro del petróleo, pero tras el análisis realizado se puede vislumbrar un futuro prometedor en la fusión de políticas medioambientales coercitivas y las nuevas tecnologías emergentes del actual portafolio de oportunidades técnicas. ABSTRACT This Thesis rises from the force and the credibility of a number of warning signs linked to policies aimed at reducing the role of petroleum in the energy industry due to economical, geopolitical and environmental drives. As such Thesis, it grew up based on aggregating new but essentials elements into the petroleum sector. This is the case of “enabling technologies” that have a direct impact on the petroleum industry (such as fracking), or an indirect but deep impact (such as the full electrical vehicle). The Thesis was defined and structured in such a way that could convey useful conclusions for energy corporations through a series of inquiries and treatises. In addition to this, the Thesis also aims at understating la evolution of the energy industry and its capabilities both technical and economical, towards delivering the services required by end users. Within the analytical task performed in the Thesis, new terms were coined. They depict concepts that aid at explaining the facts of the energy industry. This is the case for “Investment burden”, it weights the specific capital investment (€/W) required to build a facility with the time that takes to build it, as well as other tangible risks as those posed by regulation. In addition to this, the Thesis puts forward an application designed for reviewing and predicting: the so called “Market integrated energy efficiency”, especially well-suited for dichotomies, very appealing for the case of the thermal car versus the electric car. The aim is to optimize energy related activity; or even the overall productivity of the system. The innovations proposed in this Thesis can be classified in two tiers. Tier one, within the energy sector; and tier two, related to Energy Corporation in general, but with oil and gas corporations at heart. From a corporate level, the adaptation to new energy era will be linked with the corporation capability to develop or acquire those technologies that will yield to retaining or enhancing market share. The Thesis highlights three options for corporate evolution: - diversification within Energy - geographic displacement - profiting new technologies relevant to important niches of work for the future, as: o Upstream: enhanced oil recovery using renewable energy sources (for upstream companies in the petroleum business) o Downstream: additives for reducing combustion emissions o Management of Change: operational energy storage Some energy policies tend to follow the zero-growth of some OECD countries, but the real thing could be very different. For instance, and according to estimates the number of vehicles in use will grow from 1 billion to more than double this figure 2035; but oil production will only grow from 95 million barrel/day to 145 (a 50% rise of versus an intensification of over a 100%). Hydrocarbon Corporation can lose the monopoly they currently hold over the supply of energy to transportation. This lose can be mitigated through an enhanced used of their capabilities and a higher degree of integration in the world of energy, exploring for synergies in those places were gaps were present. Petroleum products can be used to feed any type of thermal machine, as Brayton turbines, or steam reformers to produce H2 to be exploited in fuel cells. Storing petroleum products does not present any problem, but very many problems can be solved with them. Petroleum trading will likely be less volatile because of the smoothing effects of distributed storage, and indeed the efficiency in petroleum consumption will be much higher. The Thesis kicked off with a menace on the future of petroleum. However, at the end of the analysis, a bright future can be foreseen in the merging between highly demanding environmental policies and the relevant technologies of the currently emerging technical portfolio.
Resumo:
Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.
Resumo:
Las limitaciones en la capacidad de movilidad pueden ser consideradas en la actualidad como una forma de discriminación tremenda y a la vez invisible dentro de la sociedad. Para poder evitar esta discriminación es necesario que las políticas de transporte, que hasta ahora han basado sus actuaciones particularmente sobre las necesidades de acceso al empleo, reconozcan las exigencias de las personas dependientes y de aquellas que realizan las tareas no remuneradas del cuidado de otros y de atención a la familia. Las personas que trabajan en las tareas domésticas, en la mayoría de los casos mujeres, tienen muchas dificultades para sincronizar sus obligaciones con los tiempos y las distancias. Estas personas desempeñan un trabajo diario, que tiene lugar tanto fuera como dentro del hogar y tienen necesidades específicas de movilidad. El problema principal es que este tipo de trabajo no suele ser tomado en consideración, ya que no entra en la esfera del trabajo remunerado. Pero es una labor que está estrictamente ligada a la actividad de la sociedad y es un elemento indispensable para el funcionamiento de la vida urbana. Es un trabajo real, que tiene lugar en el espacio urbano, que exige un considerable esfuerzo físico y emocional, y que ayuda a garantizar la calidad de la vida cotidiana. Es un aspecto indispensable a tener en cuenta en el ejercicio de las políticas públicas y sociales. Sobre la base de estas consideraciones se introduce el concepto “Movilidad del cuidado” (Sánchez de Madariaga, 2009a y 2009b), mediante el cual se reconoce la necesidad de evaluar y hacer visible los desplazamientos diarios asociados con el trabajo del cuidado. Por trabajo del cuidado se entiende el trabajo no remunerado, realizado por los adultos para los niños u otras personas dependientes, incluido el trabajo relacionado con el mantenimiento del hogar. El análisis de este tipo de viajes exige ciertos cambios significativos en las formas de recoger datos estadísticos. No se trata solo de sumar los desplazamientos que actualmente aparecen en las estadísticas como viajes de compras, acompañamiento, gestiones, cuidado de otros, etc. El problema es que los datos sobre movilidad se recogen con una serie de sesgos que infravaloran los viajes de cuidado: las estadísticas no cuentan los viajes cortos a pie y tampoco reflejan bien los viajes encadenados, ambos típicamente femeninos; no se deslindan con precisión los viajes de cuidado de otro tipo de viajes, de manera que muchos desplazamientos relacionados con la esfera reproductiva aparecen como viajes personales o de ocio y en muchos casos se encasillan en la categoría otros. Mediante esta investigación se pretende estimar el peso que la movilidad del cuidado tiene en el total de la movilidad y describirla de manera precisa en un contexto geográfico determinado, en el caso específico Madrid. Los estudios sobre el tema realizados hasta el momento reconocen la necesidad de llevar a cabo encuestas de movilidad que tengan en cuenta las variables socio económicas que caracterizan a la población y también se demanda la segregación de los datos recogidos por sexo, así como el uso del género como una categoría analítica. Igualmente es indispensable atribuir la misma importancia que tienen los viajes relacionados con la esfera productiva a los que están relacionados con la esfera reproductiva. No obstante, es solo mediante la introducción del concepto de “movilidad del cuidado” que se propone una nueva categorización de los motivos de desplazamiento dentro de las “clásicas” encuestas de movilidad y, por primera vez, mediante esta investigación se aplica este concepto a un ejemplo práctico a partir del cual queda en evidencia la necesidad de un cambio de enfoque en las políticas de transporte. Así, a través el uso de encuestas cuantitativas y cualitativas realizadas ad hoc sobre la base de la metodología propuesta, se capturan los patrones de viajes significativos para poder describir en maneara exhaustiva la movilidad de las personas que tienen responsabilidades de cuidado. El objetivo es crear una base de conocimiento más amplia sobre los patrones de movilidad, comportamientos y necesidades, además de mejorar los conceptos operacionales y establecer políticas de transporte más equitativas, que respondan de mejor manera a las necesidades de género, beneficiando así a toda la sociedad. ABSTRACT Nowadays, limitations in urban mobility can be considered as some type of extreme discrimination, which remains invisible to the society. In order to avoid this kind of discrimination, new transport policies are required, especially considering that so far they have been based and organized particularly in relation to the needs derived from the access to employment. These policies must take into account the demands of people depending on the support of others as well as of unpaid caregivers in charge of looking after other individuals and taking care of the family. Most of the people devoted to domestic work, which in the vast majority of cases is carried out by women, find it difficult to coordinate their obligations with time and distances. These people carry out a daily job that takes place both inside their homes as well as outside, and they have specific mobility needs. The main issue is that this type of work is usually not taken into consideration, since it is not included under the scope of paid employment. However, this work is strictly related to the activities of society and is therefore a crucial element in the functioning of urban life. It is an actual job that takes place in an urban space, requires a considerable amount of physical and emotional effort and guarantees quality of life on a daily basis. This is an important aspect that should be taken into account when drafting public and social policies. The concept of “Mobility of care” (Sánchez de Madariaga, 2009a and 2009b) is introduced under these considerations. This concept acknowledges the need to evaluate and identify daily movements from one place to another that are related to caregiving. Caregiving is understood, in this case, as unpaid work that is carried out by adults for children and other people that depend on the support of others, and it also includes duties related to home maintenance. The analysis of these types of movements requires some significant changes in the way in which statistic data is gathered. The idea is to not only add up the movements that appear in statistics such as shopping trips, accompanying someone, dealings, caregiving, etc. The problem with data on mobility is that it is gathered with bias that undervalues mobility related to caregiving: statistics do not take into consideration short trips that are made walking nor do they properly reflect connected trips, both of which are typically feminine; moreover, there is an imprecise differentiation of trips related to caregiving and other kind of trips, and because of that, many of the trips related to the reproductive sphere are considered personal or recreational trips, and are many times labelled as others. This investigation aims to evaluate the importance that mobility of care has in mobility in general, describing it in a precise manner within a specific geographical context that in this case is Madrid. To this date, most of the studies on this subject have acknowledged the need to carry out mobility surveys that include socio economic variables that characterize the population and they have also requested that collected data is segregated by sex and that gender is used as an analytical category. Likewise, it is fundamental to give the same importance to mobility related to the sphere of reproduction as to that related to the sphere of productiveness. However, it is only through the implementation of the concept of “mobility of care” that a new categorization of mobility, within classic mobility surveys, is proposed. Also, for the first time and by this investigation, this concept is applied to a practical case, shining a light on the need to change the focus of transport policies. Through the use of ad hoc quantitative and qualitative surveys based on the proposed methodology, the patterns of relevant movements are identified in order to thoroughly describe the mobility of people responsible of caregiving. The aim is to create a broader knowledge base on patterns of mobility, behaviour and necessities, in addition to improving functional concepts and transport policies to make them more equitable and responsive to gender needs, thus benefitting society as a whole.
Resumo:
La valoración de inmuebles urbanos y más cuando se afronta desde un punto de vista masivo, no es una actividad sencilla. Tanto la legislación vigente en España como los estándares de valoración internacionales establecen que los valores deben de estar referenciados al valor de mercado, pero el mercado inmobiliario se caracteriza por su limitada transparencia y porque el producto es relativamente ilíquido. En este contexto, parece necesario acometer el estudio de nuevas herramientas que faciliten el establecer con mayor seguridad el valor de los inmuebles. El análisis de los factores que determinan el precio de los inmuebles permite identificar aquellas características que más inciden en el mismo, como son su tamaño, uso, tipología, calidad, antigüedad y localización. A partir de ellas y a través del estudio de la estructura urbana, localizando las zonas homogéneas y analizando las variables de su producto inmobiliario, se ha desarrollado una nueva metodología basada en el tipo edificatorio como estrategia para la valoración territorial. A lo largo de este trabajo, cuyo ámbito de análisis se ha centrado en los municipios de la Comunidad de Madrid, mediante el análisis comparado de sus características, se va a exponer cómo el tipo de estructura urbana influye significativamente en la calidad de los resultados que se obtienen. También se va a incidir en la sensibilidad de los mismos a los diferentes métodos de tratamiento de datos y de análisis matemático y estadístico. Con todo, se puede afirmar que la utilización de la metodología que se propone facilita, mejora y apoya la valoración de inmuebles, siendo posible su aplicación directa tanto para la valoración masiva de inmuebles como en la individualizada. ABSTRACT The valuation of urban property and more so when one is confronted with it from a massive point of view, is not an easy task. Taking into consideration Spain‟s current regulations as well as the international valuation standards, they establish that the values must be referred to the market value, but the real-estate market is characterised by its limited transparency and because the product is relatively illiquid. Under these circumstances, it seems necessary to undertake the study of new tools that facilitate the obtention of more accurate and secure valuation of real estate assets. The analysis of the factors that determine the price of property allow us to identify those characteristics that influence it most, such as size, use, typology, quality, age and location. Taking these points into consideration and through the study of urban structure, localising the homogeneous areas and analysing the variables of its real-estate product, a new methodology has been developed based on the type of building as well as on the local valuation strategy. Throughout this work, whose scope of analysis has been focussed on the municipalities of the Autonomous Region of Madrid through a comparative analysis of its characteristics, it will be shown how the type of urban structure can significantly influence the quality of the results that are obtained. It will also affect their sensitivity to the different methods of data processing, and of mathematical and statistical analysis. In all, one can confirm that using the methodology that is being proposed facilitates, improves and supports the valuation of properties, enabling its direct application for the mass valuation of property as well as for the individual one.
Resumo:
El cambio climático y sus efectos requieren con urgencia el desarrollo de estrategias capaces no solo de mitigar pero también permitir la adaptación de los sistemas afectados por este fenómeno a los cambios que están provocando a nivel mundial. Olas de calor más largas y frecuentes, inundaciones, y graves sequías aumentan la vulnerabilidad de la población, especialmente en asentamientos urbanos. Este fenómeno y sus soluciones potenciales han sido ampliamente estudiados en las últimas décadas desde diferentes perspectivas y escalas que analizan desde el fenómeno regional de isla de calor al aumento de la intensidad energética necesaria en los edificios para mantener las condiciones de confort en los escenarios de calentamiento que se predicen. Su comprensión requiere el entendimiento de este fenómeno y un profundo análisis de las estrategias que pueden corregirlo y adaptarse a él. En la búsqueda de soluciones a este problema, las estrategias que incorporan sistemas naturales tales como las cubiertas ajardinadas, las fachadas vegetadas y bosques urbanos, se presentan como opciones de diseño capaces de proporcionan múltiples servicios al ecosistema urbano y de regular y hacer frente a los efectos del cambio climático. Entre los servicios que aportan estos sistemas naturales se incluyen la gestión de agua de tormentas, el control del efecto isla de calor, la mejora de la calidad del aire y del agua, el aumento de la diversidad, y como consecuencia de todo lo anterior, la reducción de la huella ecológica de las ciudades. En la última década, se han desarrollado múltiples estudios para evaluar y cuantificar los servicios al ecosistema proporcionados por las infraestructuras verdes, y específicamente las cubiertas ajardinadas, sin embargo, determinados servicios como la capacidad de la regulación del microclima urbano no ha sido apenas estudiados. La mayor parte de la literatura en este campo la componen estudios relacionados con la capacidad de las cubiertas ajardinadas de reducir el efecto de la isla de calor, en una escala local, o acerca de la reducción de la demanda energética de refrigeración debida a la instalación de cubiertas ajardinadas en la escala de edificio. La escala intermedia entre estos dos ámbitos, la calle, desde su ámbito habitable cercano al suelo hasta el límite superior del cañón urbano que configura, no han sido objeto detallado de estudio por lo que es esta escala el objeto de esta tesis doctoral. Esta investigación tiene como objeto contribuir en este campo y aportar un mayor entendimiento a través de la cuantificación del impacto de las cubiertas ajardinadas sobre la temperatura y humedad en el cañón urbano en la escala de calle y con un especial foco en el nivel peatonal. El primer paso de esta investigación ha sido la definición del objeto de estudio a través del análisis y revisión de trabajos tanto teóricos como empíricos que investigan los efectos de cubiertas ajardinadas en el entorno construido, entendidas como una herramienta para la adaptación y mitigación del impacto del cambio climático en las ciudades. La literatura analizada, revela el gran potencial de los sistemas vegetales como herramientas para el diseño pasivo puesto que no solo son capaces de mejorar las condiciones climáticas y microclimaticas en las ciudades reduciendo su demanda energética, sino también la necesidad de mayor análisis en la escala de calle donde confluyen el clima, las superficies urbanas y materiales y vegetación. Este análisis requiere una metodología donde se integren la respuesta térmica de edificios, las variaciones en los patrones de viento y radiación, y la interacción con la vegetación, por lo que un análisis cuantitativo puede ayudar a definir las estrategias más efectivas para lograr espacios urbanos más habitables. En este contexto, el objetivo principal de esta investigación ha sido la evaluación cuantitativa del impacto de la cubierta ajardinada en el microclima urbano a escala de barrio en condiciones de verano en los climas mediterráneos continentales. Para el logro de este objetivo, se ha seguido un proceso que persigue identificar los modelos y herramientas de cálculo capaces de capturar el efecto de la cubierta ajardinada sobre el microclima, identificar los parámetros que potencian o limitan este efecto, y cuantificar las variaciones que microclima creado en el cañón urbano produce en el consumo de energía de los edificios que rodean éste espacio. La hipótesis principal detrás de esta investigación y donde los objetivos anteriores se basan es el siguiente: "una cubierta ajardinada instalada en edificios de mediana altura favorece el establecimiento de microclimas a nivel peatonal y reduce las temperaturas en el entorno urbano donde se encuentra”. Con el fin de verificar la hipótesis anterior y alcanzar los objetivos propuestos se ha seguido la siguiente metodología: • definición del alcance y limitaciones del análisis • Selección de las herramientas y modelos de análisis • análisis teórico de los parámetros que afectan el efecto de las cubiertas ajardinadas • análisis experimental; • modelización energética • conclusiones y futuras líneas de trabajo Dada la complejidad de los fenómenos que intervienen en la generación de unas determinadas condiciones microclimáticas, se ha limitado el objeto de este estudio a las variables de temperatura y humedad, y sólo se han tenido en cuenta los componentes bióticos y abióticos del sistema, que incluyen la morfología, características superficiales del entorno estudiado, así como los elementos vegetales. Los componentes antrópicos no se han incluido en este análisis. La búsqueda de herramientas adecuadas para cumplir con los objetivos de este análisis ha concluido en la selección de ENVI-met v4 como el software más adecuado para esta investigación por su capacidad para representar los complejos fenómenos que caracterizan el microclima en cañones urbanos, en una escala temporal diaria y con unas escala local de vecindario. Esta herramienta supera el desafío que plantean los requisitos informáticos de un cálculo completo basado en elementos finitos realizados a través de herramientas de dinámica de fluidos computacional (CFD) que requieren una capacidad de cálculo computacional y tiempo privativos y en una escala dimensional y temporal limitada a esta capacidad computacional lo que no responde a los objetivos de esta investigación. ENVI-met 4 se basa es un modelo tridimensional del micro clima diseñado para simular las interacciones superficie-planta-aire en entornos urbanos. Basado en las ecuaciones fundamentales del equilibrio que representan, la conservación de masa, energía y momento. ENVI-met es un software predictivo, y como primer paso ha requerido la definición de las condiciones iniciales de contorno que se utilizan como punto de partida por el software para generar su propio perfil de temperatura y humedad diaria basada en la localización de la construcción, geometría, vegetación y las superficies de características físicas del entorno. La geometría de base utilizada para este primer análisis se ha basado en una estructura típica en cuanto al trazado urbano situada en Madrid que se ha simulado con una cubierta tradicional y una cubierta ajardinada en sus edificios. La estructura urbana seleccionada para este análisis comparativo es una red ortogonal con las calles principales orientadas este-oeste. El edificio típico que compone el vecindario se ha definido como “business as usual” (BAU) y se ha definido con una cubierta de baldosa de hormigón estándar, con un albedo 0.3, paredes con albedo 0.2 (construcción de muro de ladrillo típico) y cerramientos adiabáticos para evitar las posibles interferencias causadas por el intercambio térmico con el ambiente interior del edificio en los resultados del análisis. Para el caso de la cubierta ajardinada, se mantiene la misma geometría y características del edificio con excepción de la cobertura superficial de la azotea. Las baldosas de hormigón se han modificado con una cubierta ajardinada extensiva cubierta con plantas xerófilas, típicas en el clima de Madrid y caracterizado por su índice de densidad foliar, el “leaf area density” (LAD), que es la superficie total de superficie de hojas por unidad de volumen (m2/m3). El análisis se centra en los cañones urbanos entendidos como el espacio de calle comprendido entre los límites geométricos de la calle, verticales y horizontales, y el nivel superior de la cota urbana nivel de cubiertas. Los escenarios analizados se basan en la variación de la los principales parámetros que según la literatura analizada condicionan las variaciones microclimáticas en el ámbito urbano afectado por la vegetación, la velocidad del viento y el LAD de la azotea. Los resultados han sido registrados bajo condiciones de exposición solar diferentes. Las simulaciones fueron realizadas por los patrones de viento típico de verano, que para Madrid se caracterizan por vientos de componente suroeste que van desde 3 a 0 m/s. las simulaciones fueron realizadas para unas condiciones climáticas de referencia de 3, 2, 1 y 0 m/s a nivel superior del cañón urbano, como condición de contorno para el análisis. Los resultados calculados a 1,4 metros por encima del nivel del suelo, en el espacio habitado, mostraron que el efecto de la cubierta ajardinada era menor en condiciones de contorno con velocidades de viento más altas aunque en ningún caso el efecto de la cubierta verde sobre la temperatura del aire superó reducciones de temperatura de aire superiores a 1 º C. La humedad relativa no presentó variaciones significativas al comparar los diferentes escenarios. Las simulaciones realizadas para vientos con velocidad baja, entre 0 y 1 m/s mostraron que por debajo de 0.5 m/s la turbulencia del modelo aumentó drásticamente y se convirtió en el modelo inestable e incapaz de producir resultados fiables. Esto es debido al modelo de turbulencia en el software que no es válido para velocidades de viento bajas, lo que limita la capacidad de ENVI-met 4 para realizar simulaciones en estas condiciones de viento y es una de las principales conclusiones de este análisis en cuanto a la herramienta de simulación. También se comprobó el efecto de las densidades de la densidad de hoja (LAD) de los componentes vegetales en el modelo en la capa de aire inmediatamente superior a la cubierta, a 0,5 m sobre este nivel. Se compararon tres alternativas de densidad de hoja con la cubierta de baldosa de hormigón: el techo verde con LAD 0.3 (hierba típica o sedum), LAD 1.5 (plantas mixtas típicas) y LAD 2.5 (masa del árbol). Los resultados mostraron diferencias de temperatura muy relevante entre las diferentes alternativas de LAD analizadas. Los resultados muestran variaciones de temperatura que oscilan entre 3 y 5 º C al comparar el estándar de la azotea concreta con albedo 0, 3 con el techo con vegetación y vegetación densa, mostrando la importancia del LAD en la cuantificación de los efectos de las cubiertas vegetales en microclima circundante, lo que coincide con los datos reportados en la literatura existente y con los estudios empíricos analizados. Los resultados de los análisis teóricos han llegado a las siguientes conclusiones iniciales relacionadas con la herramienta de simulación y los resultados del modelo: En relación con la herramienta ENVI-met, se han observado limitaciones para el análisis. En primer lugar, la estructura rígida de la geometría, las bases de datos y el tamaño de la cuadrícula, limitan la escala y resolución de los análisis no permitiendo el desarrollo de grandes zonas urbanas. Por otro lado la estructura de ENVI-met permite el desarrollo de este tipo de simulación tan complejo dentro de tiempos razonables de cálculo y requerimientos computacionales convencionales. Otra limitación es el modelo de turbulencia del software, que no modela correctamente velocidades de viento bajas (entre 0 y 1 m/s), por debajo de 0,5 m/s el modelo da errores y no es estable, los resultados a estas velocidades no son fiables porque las turbulencias generadas por el modelo hacen imposible la extracción de patrones claros de viento y temperatura que permitan la comparación entre los escenarios de cubierta de hormigón y ajardinada. Además de las limitaciones anteriores, las bases de datos y parámetros de entrada en la versión pública del software están limitados y la complejidad de generar nuevos sistemas adaptándolos al edificio o modelo urbano que se quiera reproducir no es factible salvo en la versión profesional del software. Aparte de las limitaciones anteriores, los patrones de viento y perfiles de temperatura generados por ENVI-met concuerdan con análisis previos en los que se identificaban patrones de variación de viento y temperaturas en cañones urbanos con patrones de viento, relación de aspecto y dimensiones similares a los analizados en esta investigación. Por lo tanto, el software ha demostrado una buena capacidad para reproducir los patrones de viento en los cañones de la calle y capturar el efecto de enfriamiento producido por la cubierta verde en el cañón. En relación con el modelo, el resultado revela la influencia del viento, la radiación y el LAD en la temperatura del aire en cañones urbanos con relación de aspecto comprendida entre 0,5 y 1. Siendo el efecto de la cubierta verde más notable en cañones urbanos sombreados con relación de aspecto 1 y velocidades de viento en el nivel de “canopy” (por encima de la cubierta) de 1 m/s. En ningún caso las reducciones en la temperatura del aire excedieron 1 º C, y las variaciones en la humedad relativa no excedieron 1% entre los escenarios estudiados. Una vez que se han identificado los parámetros relevantes, que fueron principalmente la velocidad del viento y el LAD, se realizó un análisis experimental para comprobar los resultados obtenidos por el modelo. Para éste propósito se identificó una cubierta ajardinada de grandes dimensiones capaz de representar la escala urbana que es el objeto del estudio. El edificio usado para este fin fue el parking de la terminal 4 del aeropuerto internacional de Madrid. Aunque esto no es un área urbana estándar, la escala y la configuración del espacio alrededor del edificio fueron considerados aceptables para el análisis por su similitud con el contexto urbano objeto de estudio. El edificio tiene 800 x 200 m, y una altura 15 m. Está rodeado de vías de acceso pavimentadas con aceras conformando un cañón urbano limitado por el edificio del parking, la calle y el edificio de la terminal T4. El aparcamiento está cerrado con fachadas que configuran un espacio urbano de tipo cañón, con una relación de aspecto menor que 0,5. Esta geometría presenta patrones de viento y velocidad dentro del cañón que difieren ligeramente de los generados en el estudio teórico y se acercan más a los valores a nivel de canopo sobre la cubierta del edificio, pero que no han afectado a la tendencia general de los resultados obtenidos. El edificio cuenta con la cubierta ajardinada más grande en Europa, 12 Ha cubiertas por con una mezcla de hierbas y sedum y con un valor estimado de LAD de 1,5. Los edificios están rodeados por áreas plantadas en las aceras y árboles de sombra en las fachadas del edificio principal. El efecto de la cubierta ajardinada se evaluó mediante el control de temperaturas y humedad relativa en el cañón en un día típico de verano. La selección del día se hizo teniendo en cuenta las predicciones meteorológicas para que fuesen lo más semejantes a las condiciones óptimas para capturar el efecto de la cubierta vegetal sobre el microclima urbano identificadas en el modelo teórico. El 09 de julio de 2014 fue seleccionado para la campaña de medición porque las predicciones mostraban 1 m/s velocidad del viento y cielos despejados, condiciones muy similares a las condiciones climáticas bajo las que el efecto de la cubierta ajardinada era más notorio en el modelo teórico. Las mediciones se registraron cada hora entre las 9:00 y las 19:00 en 09 de julio de 2014. Temperatura, humedad relativa y velocidad del viento se registraron en 5 niveles diferentes, a 1.5, 4.5, 7.5, 11.5 y 16 m por encima del suelo y a 0,5 m de distancia de la fachada del edificio. Las mediciones fueron tomadas en tres escenarios diferentes, con exposición soleada, exposición la sombra y exposición influenciada por los árboles cercanos y suelo húmedo. Temperatura, humedad relativa y velocidad del viento se registraron con un equipo TESTO 410-2 con una resolución de 0,1 ºC para temperatura, 0,1 m/s en la velocidad del viento y el 0,1% de humedad relativa. Se registraron las temperaturas de la superficie de los edificios circundantes para evaluar su efecto sobre los registros usando una cámara infrarroja FLIR E4, con resolución de temperatura 0,15ºC. Distancia mínima a la superficie de 0,5 m y rango de las mediciones de Tª de - 20 º C y 250 º C. Los perfiles de temperatura extraídos de la medición in situ mostraron la influencia de la exposición solar en las variaciones de temperatura a lo largo del día, así como la influencia del calor irradiado por las superficies que habían sido expuestas a la radiación solar así como la influencia de las áreas de jardín alrededor del edificio. Después de que las medidas fueran tomadas, se llevaron a cabo las siguientes simulaciones para evaluar el impacto de la cubierta ajardinada en el microclima: a. estándar de la azotea: edificio T4 asumiendo un techo de tejas de hormigón con albedo 0.3. b. b. cubierta vegetal : T4 edificio asumiendo una extensa cubierta verde con valor bajo del LAD (0.5)-techo de sedum simple. c. c. cubierta vegetal: T4 edificio asumiendo una extensa cubierta verde con alta joven valor 1.5-mezcla de plantas d. d. cubierta ajardinada más vegetación nivel calle: el edificio T4 con LAD 1.5, incluyendo los árboles existentes a nivel de calle. Este escenario representa las condiciones actuales del edificio medido. El viento de referencia a nivel de cubierta se fijó en 1 m/s, coincidente con el registro de velocidad de viento en ese nivel durante la campaña de medición. Esta velocidad del viento se mantuvo constante durante toda la campaña. Bajo las condiciones anteriores, los resultados de los modelos muestran un efecto moderado de azoteas verdes en el microclima circundante que van desde 1 º a 2 º C, pero una contribución mayor cuando se combina con vegetación a nivel peatonal. En este caso las reducciones de temperatura alcanzan hasta 4 ºC. La humedad relativa sin embargo, no presenta apenas variación entre los escenarios con y sin cubierta ajardinada. Las temperaturas medidas in situ se compararon con resultados del modelo, mostrando una gran similitud en los perfiles definidos en ambos casos. Esto demuestra la buena capacidad de ENVI-met para reproducir el efecto de la cubierta ajardinada sobre el microclima y por tanto para el fin de esta investigación. Las diferencias más grandes se registraron en las áreas cercanas a las zonas superiores de las fachadas que estaban más expuestas a la radiación del sol y también el nivel del suelo, por la influencia de los pavimentos. Estas diferencias se pudieron causar por las características de los cerramientos en el modelo que estaban limitados por los datos disponibles en la base de datos de software, y que se diferencian con los del edificio real. Una observación importante derivada de este estudio es la contribución del suelo húmedo en el efecto de la cubierta ajardinada en la temperatura del aire. En el escenario de la cubierta ajardinada con los arboles existentes a pie de calle, el efecto del suelo húmedo contribuye a aumentar las reducciones de temperatura hasta 4.5ºC, potenciando el efecto combinado de la cubierta ajardinada y la vegetación a pie de calle. Se realizó un análisis final después de extraer el perfil horario de temperaturas en el cañón urbano influenciado por el efecto de las cubiertas ajardinadas y los árboles. Con esos perfiles modificados de temperatura y humedad se desarrolló un modelo energético en el edificio asumiendo un edificio cerrado y climatizado, con uso de oficinas, una temperatura de consigna de acuerdo al RITE de 26 ºC, y con los sistemas por defecto que establece el software para el cálculo de la demanda energética y que responden a ASHRAE 90.1. El software seleccionado para la simulación fue Design Builder, por su capacidad para generar simulaciones horarias y por ser una de las herramientas de simulación energética más reconocidas en el mercado. Los perfiles modificados de temperatura y humedad se insertaron en el año climático tipo y se condujo la simulación horaria para el día definido, el 9 de Julio. Para la simulación se dejaron por defecto los valores de conductancia térmica de los cerramientos y la eficiencia de los equipos de acuerdo a los valores que fija el estándar ASHRAE para la zona climática de Madrid, que es la 4. El resultado mostraba reducciones en el consumo de un día pico de hasta un 14% de reducción en las horas punta. La principal conclusión de éste estudio es la confirmación del potencial de las cubiertas ajardinadas como una estrategia para reducir la temperatura del aire y consumo de energía en los edificios, aunque este efecto puede ser limitado por la influencia de los vientos, la radiación y la especie seleccionada para el ajardinamiento, en especial de su LAD. Así mismo, en combinación con los bosques urbanos su efecto se potencia e incluso más si hay pavimentos húmedos o suelos porosos incluidos en la morfología del cañón urbano, convirtiéndose en una estrategia potencial para adaptar los ecosistemas urbanos el efecto aumento de temperatura derivado del cambio climático. En cuanto a la herramienta, ENVI-met se considera una buena opción para éste tipo de análisis dada su capacidad para reproducir de un modo muy cercano a la realidad el efecto de las cubiertas. Aparte de ser una herramienta validada en estudios anteriores, en el caso experimental se ha comprobado por medio de la comparación de las mediciones con los resultados del modelo. A su vez, los resultados y patrones de vientos generados en los cañones urbanos coinciden con otros estudios similares, concluyendo por tanto que es un software adecuado para el objeto de esta tesis doctoral. Como líneas de investigación futura, sería necesario entender el efecto de la cubierta ajardinada en el microclima urbano en diferentes zonas climáticas, así como un mayor estudio de otras variables que no se han observado en este análisis, como la temperatura media radiante y los indicadores de confort. Así mismo, la evaluación de otros parámetros que afectan el microclima urbano tales como variables geométricas y propiedades superficiales debería ser analizada en profundidad para tener un resultado que cubra todas las variables que afectan el microclima en el cañón urbano. ABSTRACT Climate Change is posing an urgency in the development of strategies able not only to mitigate but also adapt to the effects that this global problem is evidencing around the world. Heat waves, flooding and severe draughts increase the vulnerability of population, and this is especially critical in urban settlements. This has been extensively studied over the past decades, addressed from different perspectives and ranging from the regional heat island analysis to the building scale. Its understanding requires physical and dimensional analysis of this broad phenomenon and a deep analysis of the factors and the strategies which can offset it. In the search of solutions to this problem, green infrastructure elements such as green roofs, walls and urban forests arise as strategies able provide multiple regulating ecosystem services to the urban environment able to cope with climate change effects. This includes storm water management, heat island effect control, and improvement of air and water quality. Over the last decade, multiple studies have been developed to evaluate and quantify the ecosystem services provided by green roofs, however, specific regulating services addressing urban microclimate and their impact on the urban dwellers have not been widely quantified. This research tries to contribute to fill this gap and analyzes the effects of green roofs and urban forests on urban microclimate at pedestrian level, quantifying its potential for regulating ambient temperature in hot season in Mediterranean –continental climates. The study is divided into a sequence of analysis where the critical factors affecting the performance of the green roof system on the microclimate are identified and the effects of the green roof is tested in a real case study. The first step has been the definition of the object of study, through the analysis and review of theoretical and empirical papers that investigate the effects of covers landscaped in the built environment, in the context of its use as a tool for adaptation and mitigation of the impact of climate change on cities and urban development. This literature review, reveals the great potential of the plant systems as a tool for passive design capable of improving the climatic and microclimatic conditions in the cities, as well as its positive impact on the energy performance of buildings, but also the need for further analysis at the street scale where climate, urban surfaces and materials, and vegetation converge. This analysis requires a methodology where the thermal buildings response, the variations in the patterns of wind and the interaction of the vegetation are integrated, so a quantitative analysis can help to define the most effective strategies to achieve liveable urban spaces and collaterally, , the improvement of the surrounding buildings energy performance. In this specific scale research is needed and should be customized to every climate, urban condition and nature based strategy. In this context, the main objective for this research was the quantitative assessment of the Green roof impact on the urban microclimate at a neighbourhood scale in summer conditions in Mediterranean- continental climates. For the achievement of this main objective, the following secondary objectives have been set: • Identify the numerical models and calculation tools able to capture the effect of the roof garden on the microclimate. • Identify the enhancing or limiting parameter affecting this effect. • Quantification of the impact of the microclimate created on the energy consumption of buildings surrounding the street canyon analysed. The main hypothesis behind this research and where the above objectives are funded on is as follows: "An extensive roof installed in medium height buildings favours the establishment of microclimates at the pedestrian level and reduces the temperatures in the urban environment where they are located." For the purpose of verifying the above hypothesis and achieving the proposed objectives the following methodology has been followed: - Definition of hypothesis and objectives - Definition of the scope and limitations - Theoretical analysis of parameters affecting gren roof performance - Experimental analysis; - Energy modelling analyisis - Conclusions and future lines of work The search for suitable tools and models for meeting the objectives of this analysis has led to ENVI-met v4 as the most suitable software for this research. ENVI met is a three-dimensional micro-climate model designed to simulate the surface-plant-air interactions in urban environments. Based in the fundamental equations representing, mass, energy and momentum conservation, the software has the capacity of representing the complex phenomena characterizing the microclimate in urban canyons, overcoming the challenge posed by the computing requirements of a full calculus based on finite elements done via traditional computational fluid dynamics tools. Once the analysis tool has been defined, a first set of analysis has been developed to identify the main parameters affecting the green roof influence on the microclimate. In this analysis, two different scenarios are compared. A neighborhood with standard concrete tile roof and the same configuration substituting the concrete tile by an extensive green roof. Once the scenarios have been modeled, different iterations have been run to identify the influence of different wind patterns, solar exposure and roof vegetation type on the microclimate, since those are the most relevant variables affecting urban microclimates. These analysis have been run to check the conditions under which the effects of green roofs get significance. Since ENVI-met V4 is a predictive software, the first step has been the definition of the initial weather conditions which are then used as starting point by the software, which generates its own daily temperature and humidity profile based on the location of the building, geometry, vegetation and the surfaces physical characteristics. The base geometry used for this first analysis has been based on a typical urban layout structure located in Madrid, an orthogonal net with the main streets oriented East-West to ease the analysis of solar radiation in the different points of the model. This layout represents a typical urban neighborhood, with street canyons keeping an aspect ratio between 0.5 and 1 and high sky view factor to ensure correct sun access to the streets and buildings and work with typical wind flow patterns. Finally, the roof vegetation has been defined in terms of foliage density known as Leaf Area Density (LAD) and defined as the total one-sided leaf area per unit of layer volume. This index is the most relevant vegetation characteristic for the purpose of calculating the effect of vegetation on wind and solar radiation as well as the energy consumed during its metabolic processes. The building as usual (BAU) configuring the urban layout has been defined with standard concrete tile roofs, considering 0.3 albedo. Walls have been set with albedo 0.2 (typical brick wall construction) and adiabatic to avoid interference caused by thermal interchanges with the building indoor environment. For the proposed case, the same geometry and building characteristics have been kept. The only change is the roof surface coverage. The gravel on the roof has been changed with an extensive green roof covered with drought tolerant plants, typical in Madrid climate, and characterized by their LAD. The different scenarios analysed are based in the variation of the wind speed and the LAD of the roof. The results have been recorded under different sun exposure conditions. Simulations were run for the typical summer wind patterns, that for Madrid are characterized by South-west winds ranging from 3 to 0 m/s. Simulations were run for 3, 2, 1 and 0 m/s at urban canopy level. Results taken at 1.4 m above the ground showed that the green roof effect was lower with higher wind speeds and in any case the effect of the green roof on the air temperatures exceeded air temperature reductions higher than 1ºC. Relative humidity presented no variations when comparing the different scenarios. For the analysis at 0m/s, ENVI-met generated error and no results were obtained. Different simulations showed that under 0.5 m/s turbulence increased dramatically and the model became unstable and unable to produce reliable results. This is due to the turbulence model embedded in the software which is not valid for low wind speeds (below 1 m/s). The effect of the different foliage densities was also tested in the model. Three different alternatives were compared against the concrete roof: green roof with LAD 0.3 ( typical grass or sedum), 1.5 (typical mixed plants) and 2.5 (tree mass). The results showed very relevant temperature differences between the different LAD alternatives analyzed. Results show temperature variations ranging between 3 and 5 ºC when comparing the standard concrete roof with albedo 0, 3 with the vegetated roof and vegetated mass, showing the relevance of the LAD on the effects of green roofs on microclimate. This matches the data reported in existing literature and empirical studies and confirms the relevance of the LAD in the roof effect on the surrounding microclimate. The results of the theoretical analysis have reached the following initial conclusions related to both, the simulation tool and the model results: • In relation to the tool ENVI-met, some limitations for the analysis have been observed. In first place, the rigid structure of the geometry, the data bases and the grid size, limit the scale and resolution of the analysis not allowing the development of large urban areas. On the other hand the ENVI-met structure enables the development of this type of complex simulation within reasonable times and computational requirements for the purpose of this analysis. Additionally, the model is unable to run simulations at wind speeds lower than 0.5 m/s, and even at this speed, the results are not reliable because the turbulences generated by the model that made impossible to extract clear temperature differences between the concrete and green roof scenarios. Besides the above limitations, the wind patterns and temperature profiles generated by ENVImet are in agreement with previous analysis identifying wind patterns in urban canyons with similar characteristics and aspect ratio. Therefore the software has shown a good capacity for reproducing the wind effects in the street canyons and seems to capture the cooling effect produced by the green roof. • In relation to the model, the results reveals the influence of wind, radiation and LAD on air temperature in urban canyons with aspect ratio comprised between 0.5 and 1. Being the effect of the green roof more noticeable in shaded urban canyons with aspect ratio 1 and wind speeds of 1 m/s. In no case the reductions in air temperature exceeded 1ºC. Once the relevant parameters have been identified, mainly wind speed and LAD, an experimental analysis was conducted to test the results obtained by the model. For this purpose a large green roof was identified, able to represent the urban scale which is the object of the studio. The building identified for this purpose was the terminal 4, parking building of the international Madrid Airport. Even though this is not a standard urban area, the scale and configuration of the space around the building were deemed as acceptable for the analysis. The building is an 800x200 m, 15 m height parking building, surrounded by access paved paths and the terminal building. The parking is enclosed with facades that configure an urban canyon-like space, although the aspect ratio is lower than 0.5 and the wind patterns might differ from the theoretical model run. The building features the largest green roof in Europe, a 12 Ha extensive green roof populated with a mix of herbs and sedum with a LAD of 1.5. The buildings are surrounded by planted areas at the sidewalk and trees shading the main building facades. Green roof performance was evaluated by monitoring temperatures and relative humidity in the canyon in a typical summer day. The day selection was done taking into account meteorological predictions so the weather conditions on the measurement day were as close as possible as the optimal conditions identified in terms of green roof effects on the urban canyon. July 9th 2014 was selected for the measurement campaign because the predictions showed 1 m/s wind speed and sunny sky, which were very similar to the weather conditions where the effect of the green roof was most noticeable in the theory model. Measurements were registered hourly from 9:00am to 19:00 on July 9th 2014. Temperature, relative humidity and wind speed were recorded at 5 different levels, at 1.5, 4.5, 7.5, 11.5 and 16 m above ground and at 0.5 m distance from the building façade. Measurements were taken in three different scenarios, sunny exposure, shaded exposure, and shaded exposure influenced by nearby trees and moist soil. Temperature, relative humidity and wind speed were registered using a TESTO 410-2 anemometer, with 0.1ºC resolution for temperature, 0.1 m/s resolution for wind speed and 0.1 % for relative humidity. Surface temperatures were registered using an infrared camera FLIR E4, with temperature resolution 0.15ºC. Minimal distance to surface of 0.5 m and Tª measurements range from -20ºC and 250ºC. The temperature profiles measured on the site showed the influence of solar exposure on the temperature variations along the day, as well as the influence of the heat irradiated by the building surfaces which had been exposed to the sun radiation and those influenced by the moist soft areas around the building. After the measurements were taken, the following simulations were conducted to evaluate the impact of the green roof on the microclimate: a. Standard roof: T4 building assuming a concrete tile roof with albedo 0.3. b. Green roof: T4 building assuming an extensive green roof with low LAD value (0.5)-Simple Sedum roof. c. Green roof: T4 building assuming an extensive green roof with high LAD value 1.5- Lucerne and grasses d. Green roof plus street level vegetation: T4 Building, LAD 1.5 (Lucerne), including the existing trees at street level. This scenario represents the current conditions of the building. The urban canopy wind was set as 1 m/s, the wind speed register at that level during the measurement campaign. This wind speed remained constant over the whole campaign. Under the above conditions, the results of the models show a moderate effect of green roofs on the surrounding microclimate ranging from 1ºC to 2ºC, but a larger contribution when combining it with vegetation at pedestrian level, where 4ºC temperature reductions are reached. Relative humidity remained constant. Measured temperatures and relative humidity were compared to model results, showing a close match in the profiles defined in both cases and the good capacity of ENVI met to capture the impact of the green roof in this analysis. The largest differences were registered in the areas close to the top areas of the facades which were more exposed to sun radiation and also near to the soil level. These differences might be caused by differences between the materials properties included in the model (which were limited by the data available in the software database) and those in the real building. An important observation derived from this study is the contribution of moist soil to the green roof effect on air temperatures. In the green roof scenario with surrounding trees, the effect of the moist soil contributes to raise the temperature reductions at 4.5ºC. A final analysis was conducted after extracting the hourly temperature profile in the street canyon influenced by the effect of green roofs and trees. An energy model was run on the building assuming it was a conventional enclosed building. Energy demand reductions were registered in the building reaching up to 14% reductions at the peak hour. The main conclusion of this study is the potential of the green roofs as a strategy for reducing air temperatures and energy consumption in the buildings, although this effect can be limited by the influence of high speed winds. This effect can be enhanced its combination with urban forests and even more if soft moist pavements are included in the urban canyon morphology, becoming a potential strategy for adapting urban ecosystems to the increasing temperature effect derived from climate change.
Resumo:
En los hospitales y residencias geriátricas de hoy en día es necesario que tengan un sistema asistencial paciente-enfermera. Este sistema debe ser capaz de controlar y gestionar cada una de las alarmas que se puedan generar en el menor tiempo posible y con la mayor eficacia. Para ello se ha diseñado una solución completa llamada ConnectCare. La arquitectura modular del sistema y la utilización de comunicación IP permiten adaptar el sistema a cada situación proporcionando soluciones específicas a medida. Este sistema se compone de un software llamado Buslogic que gestiona las alarmas en un servidor y de unos dispositivos llamados Fonet Control TCP/IP que posee una doble función: por una parte, sirve como dispositivo intercomunicador telefónico y por otra parte, sirve como dispositivo de gestión de alarmas y control de otros dispositivos externos. Como dispositivo intercomunicador telefónico, se integra en la red telefónica como un terminal de extensión analógica permitiendo la intercomunicación entre el paciente y el personal sanitario. Se hará una breve descripción de la parte intercomunicadora pero no es el objeto de este proyecto. En cambio, en la parte de control se hará más hincapié del diseño y su funcionamiento ya que sí es el objeto de este proyecto. La placa de control permite la recepción de señales provenientes de dispositivos de llamadas cableados, como son pulsadores asistenciales tipo “pera” o tiradores de baño. También es posible recibir señales de alerta de dispositivos no estrictamente asistenciales como detectores de humo o detectores de presencia. Además, permite controlar las luces de las habitaciones de los residentes y actuar sobre otros dispositivos externos. A continuación se mostrará un presupuesto para tener una idea del coste que supone. El presupuesto se divide en dos partes, la primera corresponde en el diseño de la placa de control y la segunda corresponde a la fabricación en serie de la misma. Después hablaremos sobre las conclusiones que hemos sacado tras la realización de este proyecto y sobre las posibles mejoras, terminando con una demostración del funcionamiento del equipo en la vida real. ABSTRACT. Nowadays, in hospitals and nursing homes it is required to have a patient-nurse care system. This system must be able to control and manage each one of the alarms, in the shortest possible time and with maximum efficiency. For this, we have designed a complete solution called ConnectCare. The system architecture is modular and the communication is by IP protocol. This allows the system to adapt to each situation and providing specific solutions. This system is composed by a software, called Buslogic, which it manages the alarms in the PC server and a hardware, called Fonet Control TCP / IP, which it has a dual role: the first role, it is a telephone intercom device and second role, it is a system alarm manager and it can control some external devices. As telephone intercom device, it is integrated into the telephone network and also it is an analog extension terminal allowing intercommunication between the patient and the health personnel. A short description of this intercommunication system will be made, because it is not the subject of this project. Otherwise, the control system will be described with more emphasis on the design and operation point of view, because this is the subject of this project. The control board allows the reception of signals from wired devices, such as pushbutton handset or bathroom pullcord. It is also possible to receive warning signals of non nurse call devices such as smoke detectors or motion detectors. Moreover, it allows to control the lights of the patients’ rooms and to act on other external devices. Then, a budget will be showed. The budget is divided into two parts, the first one is related with the design of the control board and the second one corresponds to the serial production of it. Then, it is discussed the conclusions of this project and the possible improvements, ending with a demonstration of the equipment in real life.
Resumo:
Las características de heterogeneidad de los residuos sólidos urbanos así como la degradación biológica de sus componentes orgánicos influyen en los aspectos geotécnicos de los vertederos. La magnitud y duración de los asientos son factores muy importantes en el estudio del comportamiento de vertederos. La velocidad de asiento disminuye con el tiempo pero se mantiene durante muchos años después de su clausura. Para reducir los asientos del relleno, uno de los métodos de tratamiento que se utiliza es la compactación dinámica de los residuos sólidos. En este trabajo se estudia la mejora, a través de la compactación dinámica por impacto tipo “Menard”, de un vertedero de residuos sólidos en Madrid y los asientos provocados por la aplicación de una sobrecarga. Se analiza el comportamiento de los residuos sólidos con tratamiento de mejora, así como la predicción de asientos a 10 años aplicando los modelos Sowers (1973), Yen & Scanlon (1975), Gandola et al. (1992) y Meruelo (1994). Heterogonous characteristics of solid urban residues as well as biological decomposition of its organic components affect the geotechnical aspects of the landfills. The magnitude and the duration of the landfill settlement are one of the significant factors in studying the behavior of landfills. Although the rate of the settlement decreases as the time passes, however it is still maintained during many years after its closure. One of the methods used to reduce the settlement waste is through the dynamic consolidation methods of the solid residues. In this work, by applying the “Menard” dynamic consolidation method, we are studying the improvement of solid residue landfill in Madrid and the settlements provoked by overloading. The behavior of the solid residues through the improvement treatments as well as 10 years ahead prediction are analyzed by applying the models by Sowers (1973), Yen & Scanlon (1975), Gandola et al. (1992) and Meruelo (1994).
Resumo:
El presente proyecto fin de carrera surge y se engloba dentro del marco del Proyecto de Innovación Educativa IE-14-15-05008 y abarca el proceso de diseño, implantación y seguimiento de la nueva asignatura “Ingenia: Proyecto de Máquinas” perteneciente al recién estrenado Máster en Ingeniería Industrial que oferta la Universidad Politécnica de Madrid. Esto debe realizarse dentro del ámbito de organización educativa que constituye el Marco Europeo de Educación Superior y que con el Proceso de Bolonia (1999) propuso un cambio en el modelo educativo, que permitiese entre otras cosas, impulsar cambios en las metodologías docentes. Durante gran parte del siglo XX, la enseñanza de la ingeniería en las universidades ofrecía una exposición efectiva a la práctica. Era enseñada por ingenieros que estaban ejerciendo su profesión y se concentraba en la resolución de problemas tangibles mientras que los estudiantes aprendían a conceptualizar y diseñar productos y sistemas. La rápida expansión del conocimiento científico y técnico que ocurrió a finales de los 90s causó que la enseñanza de la ingeniería se convirtiera en la enseñanza de la “ciencia de la ingeniería”, con una menor concentración práctica. Los líderes de la industria empezaron a hallar que los estudiantes que se graduaban, si bien tenían una sólida capacitación técnica, carecían de muchas de las habilidades requeridas en las situaciones de ingeniería del mundo real. La enseñanza en general y la enseñanza de la Ingeniería en particular necesitan por tanto de una reforma educativa integral. De esta necesidad, surge la iniciativa CDIO (ConcebirDiseñar-Implementar-Operar), un marco educativo innovador dirigido a producir la próxima generación de líderes de ingeniería; siendo este el marco al que se abrazan las asignaturas tipo “INGENIA” y con el que se pretenden alcanzar las habilidades tanto técnicas como personales e interpersonales que requiere la nueva generación de ingenieros para ser competitivos en un sector cada vez más amplio y multidisciplinar. Para conseguir el cambio requerido antes citado, se hace necesaria la realización de proyectos de innovación educativa como el presente, que ayuden durante el proceso de transición que está viviendo el modelo educativo. Para lograr estos, el presente proyecto pretende dar respuesta a preguntas como: ¿De dónde venimos y hacia dónde debemos ir?, ¿Por qué es necesario un cambio?, ¿Qué pretendemos alcanzar con este cambio?, ¿Qué resultados esperamos de ello?, ¿Qué cambios se han introducido y cuales hay pendientes por introducir?, ¿Cómo planificar la reestructuración y adaptación de recursos y contenidos docentes para alcanzar los objetivos?, ¿De qué recursos se dispone y cuales hay que incorporar?, ¿Cómo debemos medir, evaluar y difundir los resultados obtenidos?, ¿Qué conclusiones se pueden extraer de los resultados? Para dar respuesta a estas y otras preguntas se abordan los puntos que se exponen a continuación. Los principales apartados del presente proyecto son la INTRODUCCIÓN, PLANIFICACIÓN y RESULTADOS OBTENIDOS. En primer lugar, durante la INTRODUCCIÓN se realiza una descripción del Espacio Europeo de Educación Superior (EEES), resumiendo cuáles son los objetivos estratégicos del mismo, y la conexión existente con la enseñanza de la Ingeniería Mecánica. Posteriormente se aborda un breve estudio de las metodologías docentes tradicionales empleadas en la enseñanza para inmediatamente después introducir las bases del aprendizaje activo. Se analizan las necesidades que han llevado a plantear los cambios en las metodologías docentes. Para esto se analizan varios estudios enfocados a concretar las características que se requieren en los recién egresados de titulaciones técnicas. Como consecuencia de las necesidades descritas surge la iniciativa CDIO, marco a la que se acogen las asignaturas “Ingenia” y que se estudiará en profundidad. Por último y tras introducir el contexto del proyecto, se describen los objetivos del mismo así como la planificación de las actividades. Con el apartado PLANIFICACIÓN se pretende describir las actividades realizadas del proceso de diseño de la asignatura abarcando la programación de actividades, gestión y empleo de recursos, metodologías docentes empleadas, plan de evaluación, entre otras actividades. En el apartado RESULTADOS OBTENIDOS se describen los prototipos fabricados, los resultados de aprendizaje, la valoración de la asignatura y problemas encontrados. Todo ello será de especial interés para extraer lecciones aprendidas y proponer acciones correctoras y/o de mejora.
Resumo:
1. INTRODUCCION 2. LA ORGANIZACIÓN DEL CONCURSO 3. MONUMENTALIDAD Y ESCALAS CERCANAS Los CIAM de Bridgewater y Hoddesdon. El carácter institucional del urbanismo moderno Las propuestas premiadas 4. PLANTA LIBRE Y PREEXISTENCIAS El CIAM 7 de Bérgamo. El debate sobre la reconstrucción Nada que conservar. La propuesta de Le Corbusier Desde el interior. La propuesta de Luiggi Piccinato 5. LA VIDA EN LA CALLE. SUPERPOSICION DE USOS EN EL ESPACIO PÚBLICO De Hoddesdon al manifiesto de Doorn y Dubrovnic. Usos compartidos. La propuesta de Van der Broeck y Bakema Una calle en alto. La propuesta de Alison y Peter Smithson “The charged void”. Dos sillas y el rastro de una acción 6. EL PAISAJE COMO PUNTO DE PARTIDA El CIAM de la Sarraz. Hacia una definición de “Urbanismo” De la “Grosstadt” al “StadtLandschaft”. La propuesta de Korn y Rosemberg Infraestructuras para un paisaje de mesetas. La propuesta de Abben, Anderson y Utzon 7. OTRAS HUELLAS PARA OTRA SOCIEDAD Forma y contenido de Berlín-Mitte. La propuesta de Scharoun. El paisaje chino propuesto por Ebert y Scharoun 8. CONCLUSIONES Cambios de contexto y búsqueda pragmática De la necesidad de humanizar. Momentos de conciencia INTRODUCCION El espacio público siendo quizás uno de los campos en que con más frecuencia se trabaja en los últimos años, carece sin embargo de episodios suficientemente alejados en el tiempo que nos permitan reconocer su historia reciente. La irrupción del pensamiento organicista y más tarde existencialista tras el final de la 2ª Guerra Mundial cambiaron el modo de pensar en todas las áreas del conocimiento, también en aquellas relativas al urbanismo y el proyecto de ciudad. El cambio de contexto encontrado en las capitales europeas tras los bombardeos de la Guerra (figura1) cristalizó en la necesidad de una ciudad “humanizada”. Esta necesidad se reconoce en algunas propuestas aisladas de aquellos años que se han estudiado usualmente como precursoras de otras mas actuales , pero son cuestiones que también fueron transformando la forma de pensar el espacio público en los diferentes debates de urbanismo llevados a cabo en los Congresos Internacionales de Arquitectura Moderna, influyendo de manera determinante en la continua revisión de las prerrogativas de la “Carta de Atenas” y llegando a estar en la base de su disolución final escenificada por el Team X en Oterloo en 1959. A pesar de las continuas revisiones que se habían llevado a cabo en el periodo de postguerra, la distancia entre los presupuestos teóricos y las realidades urbanas que se encontraban los participantes en los CIAM de aquella época, llevó a un cierto escepticismo y a un desplazamiento de intereses desde la teoría urbanística a la práctica proyectiva, tratando de resolver cuestiones concretas para posteriormente extraer conclusiones. LA ORGANIZACIÓN DEL CONCURSO El concurso: “Berlin Hauptstadt”, un ambicioso Plan para la Capital de una Alemania unida convocado en 1957 por la “Internationalles Bauaustellung” berlinesa, fue un último episodio en los debates de urbanismo moderno de aquel periodo de disolución que nos muestra las incertidumbres y contradicciones de algunos participantes al enfrentarse al proyecto de espacio público desde la desconfianza en las bases teóricas. Si bien en cuanto a los proyectos de edificación, apenas se percibieron cambios en las propuestas presentadas al concurso, en algunos casos, el proyecto de espacio público si presentó ciertas variaciones respecto a las pautas urbanísticas presentadas por los CIAM de aquellos años. Se plantea el estudio de Berlin Hauptstadt como un último registro de estas reacciones pragmáticas ante el cambio de contexto, que nos permita encontrar matices y diferencias de interpretación entre algunas de las propuestas para desvelar a través de ellas las condiciones latentes en el proyecto de espacio público de posguerra europeo. La batalla propagandística derivada de la tensión existente entre los dos bloques que gobernaban la capital alemana en aquellos años, protagonizó la mayor parte de las decisiones sobre la ciudad y sus espacios públicos. En Berlín occidental se realizaron múltiples exposiciones sobre los diversos planes urbanísticos propuestos divulgando un modelo de ciudad moderna abierta y de planta libre, que equilibraría las carencias de soleamiento y espacios verdes existentes hasta el estallido de la Guerra. Entre otras, se impulsó la “Internationalles Bauaustellung” en 1957 conocida como IBA´57, en la que se llevaron a cabo actuaciones como la reconstrucción del nuevo “Hansaviertel” además de otros eventos entre los que destacaba el concurso “Berlin Hauptstadt”. Berlín se presentaba en la convocatoria como la futura capital de una Alemania unificada, que le llevaba a asumir un programa muy extenso y segregado, basado en una nueva red de autopistas y ferrocarriles común para toda la ciudad. Esta utópica premisa fue sin embargo acogida con cierta esperanza de viabilidad real por parte de los participantes, quienes en su mayoría mostraron una preocupación común por lo que coincidieron en llamar “humanizierung der Stadt” la humanización de la ciudad en las memorias presentadas. La humanización era sin embargo algo difícil de lograr en el Berlín de aquellos años. La ciudad o mejor dicho las dos ciudades estaban una vez más sumidas en su propia idea de reconstrucción, como la capital “permanentemente a medio hacer” que ya describía Karl Scheffer a principios de siglo XX. De este modo mientras Berlín era proyectado desde estudios provenientes de países lejanos, para unas autoridades militares afanadas en ganar su particular batalla propagandística con el urbanismo como mejor arma, la necesidad de humanizar el espacio público se fue haciendo cada vez más presente con el paso de los años. Una ciudad real, habitada desde el espacio necesario para las acciones cotidianas, se iba consolidando silenciosamente sobre los descampados y vacíos urbanos de la capital. Las fotografías de Fritz Tiedemann y Arno Fischer (figuras 4,5,6,7) realizadas durante los primeros años tras el final de la guerra, nos muestran un paisaje de ruinas y escombros en las que quedaban registradas los rastros de una escondida cotidianeidad. En estas fotografías las ausencias se hacían mas presentes que las ruinas de la ciudad anterior, enfocando las imágenes en los ejes de las interminables avenidas, la antigua capital prusiana se percibe como un descampado continuo . MONUMENTALIDAD Y ESCALAS CERCANAS Los CIAM de Bridgewater y Hoddesdon. El carácter institucional del urbanismo moderno La mayoría de las propuestas presentadas al Concurso Berlin Hauptstadt, se desarrollaron por tanto desde unas premisas modernas que ya entonces llevaban más de una década en crisis continua. La eclosión de nuevos países en todo el mundo, que inauguraban sus recién instauradas democracias con nuevas capitales que las representasen, había alimentado durante aquellos años las discusiones teóricas llevadas a cabo en el seno de los CIAM actualizando en ciertos aspectos una “Carta de Atenas” que sin embargo se mostraban incompatibles con la recuperación de las ciudades europeas tras los bombardeos de la 2ª Guerra mundial. Estos desencuentros habían ido cambiando la forma de pensar el espacio público e intensificando su debate en los últimos Congresos Internacionales de Arquitectura Moderna. Las críticas a las actas del primer CIAM celebrado tras el final de la contienda en Bridgewater (Reino Unido) en 1947, recogidas en escritos como “Monumentalist, Symbolism and Style” por Lewis Mumford y repetidas en distintas ocasiones desde que declinó la invitación de José Luis Sert para redactar el prólogo de “Can our cities survive?” en 1940, empezaron a desestabilizar las hasta entonces férreas convicciones de los participantes. La búsqueda de una ciudad más humanizada apareció como preocupación común en las actas redactadas por Giedion, donde se entendía además logro suficiente la reanudación de los encuentros, emplazándose a proponer los temas a debatir en el próximo Congreso . Esta cualidad humana era la base del “corazón de la ciudad” que José Luis Sert propondría como tema repetidamente hasta que finalmente fue recogido como título del CIAM 8 celebrado en Hoddesdon (Inglaterra) en 1951. También sería en Hoddesdon, donde como expone Eric P. Mumford , donde se confirmó una cierta conciencia de globalización de los preceptos modernos que ya aceptados como lugar común por los poderes políticos de los distintos gobiernos no podrían volver a jugar el papel de vanguardia que se le suponía. Las propuestas premiadas Pocos años después en 1967 en su monografía editada por W. Boesiger y H. Girsberger44: Le Corbusier dejaba constancia del airado desacuerdo con que recibió el fallo del jurado, en un escrito publicado “El hecho de pensar en urbanismo en 3 dimensiones fue considerado como un crimen. De 86 proyectos se admitieron 13, pero el decimotercero era el de Le Corbusier. Fue eliminado.” Criticando así una referencia que hacían las actas a los enormes rascacielos de planta triangular que el maestro suizo superponía sobre la vieja trama berlinesa. A pesar de las enormes dificultades existentes en las Alemanias de después de la Guerra, el espíritu con que se había propuesto el concurso Berlin Hauptstadt desde la organización del IBA´57, era muy próximo al de las nuevas capitales democráticas recién fundadas profusamente expuestas en 1951 en el CIAM de Hoddesdon. Se hacía mas hincapié en lograr estos aspectos representativos y de escala monumental que debían tener las áreas institucionales que en atender a las condiciones de entendimiento con el centro histórico que tanto preocupaban ya en otras capitales europeas aquellos años. Pero si bien las bases del Concurso se habían establecido sobre estos criterios, la resolución del jurado tuvo sin embargo muy en cuenta ciertas consideraciones en cuanto a la escala de las nuevas edificaciones propuestas y al encuentro con la estructura de la ciudad existente. PLANTA LIBRE Y PREEXISTENCIAS El CIAM 7 de Bérgamo. Intervenir sobre lo existente Los principios del urbanismo moderno descritos en los CIAM de los años 1920 y 1930, desde las primeras ciudades ideales propuestas hasta la redacción de la más tarde conocida como “Carta de Atenas”, estaban pensados generalmente sobre una naturaleza teórica más o menos fértil y habitable que obviaba aquellas particularidades del lugar en el que se producían. Tras la guerra, los desoladores paisajes de retazos urbanos en que se habían convertido las capitales europeas, hacían difícil ignorar las nuevas condiciones del terreno con las ruinas de unas ciudades que poco antes estaban allí. La propuesta para la reconstrucción de Milán, fue presentada por Ernst N. Rogers en la primera sesión del CIAM de Bérgamo, como un trabajo acorde con los preceptos urbanísticos de la Carta de Atenas y capaz de incorporar la restauración de los centros históricos como parte de un plan urbanístico moderno. Se reabría así un debate en el seno de los CIAM, después de que hubiese sido ya puesto sobre la mesa por los arquitectos polacos de origen judío Helena y Syzmon Syrkus en las reuniones preparativas para el CIAM 7 llevadas a cabo un año antes en Paris. El Plan “Varsovia Socialista” incorporaba la reconstrucción del centro histórico de las ciudades a otras actuaciones basadas en la Carta de Atenas, como una reivindicación de identidad cultural ante la barbarie nazi. Helena Syrkus, a quien Giedion reservó una hora en la rueda de conferencias de la sesión inaugural del CIAM de Bérgamo, reclamaba este tipo de actuaciones como parte de una revolución “socialista-realista” que suponía un cambio cultural en la vida de los ciudadanos. Estas intervenciones, llevaron a un debate más amplio que el de la reconstrucción y conservación de centros históricos, planteándose asuntos que eran debatidos por la ciudadanía en otros ámbitos. Nada que conservar. La propuesta de Le Corbusier Le Corbusier (figura1), llevó a cabo Berlin Hauptstadt en paralelo a otros trabajos que ya en aquella época prestaban mas atención a las condiciones particulares del lugar como Chandigarh, trabajó en Berlin partiendo desde un plano teórico con el que superponía con toda libertad una versión reeditada de la “Ville Radieuse”, apenas adaptada al entramado aún presente de la antigua ciudad. Así describía la situación de partida: ”No había duda, no se habrían de destruir obras maestras del pasado para reconstruir. La demolición se debió a los aviones y no quedaba nada de todo el centro de Berlín.” Desde el interior. La propuesta de Luiggi Piccinato El final caótico del Congreso de Bérgamo, tuvo aún una última crítica quizás una de las más difíciles de salvar meses después de la clausura. El crítico italiano formado en Harvard Bruno Zevi dirigía una carta a los participantes: “De´lla cultura architettonica: Messagio al Congrés International d´Architecture Moderne”. poniendo de relieve cómo los CIAM habían perdido la batalla para liderar el debate arquitectónico al no contar con algunos de los arquitectos de la escena internacional que habían desarrollado sobre los principios de Frank Lloyd Wright, una arquitectura llamada orgánica. Con estos principios se trasladaba la idea de construir desde el interior hacia el exterior tanto la arquitectura como la propia ciudad, heredando las estructuras existentes y desarrollándolas como el crecimiento continuo de los organismos vivos. Este principio hacía necesario alejarse de los planteamientos más teóricos del urbanismo moderno, en favor de una práctica proyectiva concreta que asumiera las vicisitudes concretas del lugar en el que se trabaja. Bruno Zevi fundó la A.P.A.O. en Italia, junto con otros arquitectos y urbanistas entre quienes estaban Pier Luiggi Nervi y Mario Ridolfi además del urbanista Luiggi Piccinato. Tras el final de la Guerra, Piccinato lleva a cabo diversos Planes de Reconstrucción de ciudades históricas como Nápoles Roma o Siena y en los años 1950 de las principales capitales turcas, como Estambul y Bursa. El valor patrimonial que detecta en estas capitales de la historia arquitectónica lo asociaba a las cualidades constructivas más básicas, aquellas que realizadas sin arquitectos representaban la herencia de una cultura propia. La propuesta que presentó Luiggi Piccinato al concurso Berlin Hauptstadt (figura2), bien puede considerarse como una mas de las actuacicones realizadas hasta entonces, no había en ella una sola estructura basada en datos socioeconómicos que determine el orden general. sino que su propuesta se basaba en la suma de distintos proyectos concretos que resuelven espacios urbanos de características particulares. El plan General propuesto es consecuencia directa de estas pequeñas actuaciones con las que va re-describiendo la trama urbana de todo el área central. Un entramado de plazas interiores se incorporaban a las manzanas aún existentes, ordenando así los vacíos tan característicos de la ciudad para volver a coser las estructuras que aún quedaban en pie. Re-describir las trazas de una ciudad tan denostada por aquel entonces. LA VIDA EN LA CALLE. SUPERPOSICION DE USOS EN EL ESPACIO PÚBLICO De Hoddesdon al manifiesto de Doorn y el CIAM de Dubrovnic. El “Corazón de la Ciudad” siendo uno de los pocos temas de debate claros en el CIAM de Hoddesdon llevó sin embargo a varias críticas. Una de las más interesantes fue la protagonizada por Jacob B. Bakema y Sigfried Giedion por la posterior repercusión que tendría en las ideas que forjarían el Team X años más tarde. Giedion defendía los antecedentes históricos que daban soporte al corazón de la ciudad como hecho único, mientras que Bakema, tomando como ejemplo los parques infantiles llevadas a cabo por Aldo Van Eyck en los vacíos de Ámsterdam, abogaba por romper el aislamiento del hombre en la ciudad y poner en valor las relaciones entre las personas y objetos, a escala de barrio llevando distintos centros a todos ellos. Una de las primeras consecuencias de esta afirmación, fue la obsolescencia del criterio de segregación por áreas funcionales de la ciudad, una de las piedras angulares del urbanismo hasta entonces. La cuestión del uso. superposiciones en el espacio público En búsqueda de esa ciudad de siempre la propuesta presentada por Van Der Broeck y Bakema para Berlin Hauptstadt, trataban de llevar a cabo una disgregación del exhaustivo programa de usos propuesto en las bases para generar una serie de espacios públicos centrales. La relación entre programa y ciudad se fraguaba así como un esquema multi-centros en el que los usos, lejos de presentarse segregados se superponían por capas en un mismo espacio. La vida de los pueblos y aldeas antes de la llegada de la planificación urbana se concentraba en su espacio público, en su origen las primeras poblaciones carecían de edificios de un solo uso específico como mercados, teatros, etc, estas acciones tenían cabida de forma más o menos espontánea en el suelo libre disponible entre las casas. “The charged void” . El vacío cargado en la propuesta de los Smithson In calling our collected works The Charged Void we are thinking of architecture’s capacity to charge the space around it with an energy which can join up with other energies, influence the nature of things that might come, anticipate happenings… a capacity we can feel and act upon, but cannot necessarily describe or record. Con este escueto pero intenso párrafo, Alison y Peter Smithson hacían una aproximación un tanto indeterminada, a la idea de charged void como espacio público lleno de vida, invitándonos quizá a preguntarnos sobre esa necesidad de espacio vacío para respirar, cada vez más acuciante en la arquitectura de nuestras ciudades. La propuesta para “Berlin Hauptstadt” de Alison y Peter Smithson, ganadora de un 3er premio, se basaba en un entramado de calles en alto que se extendía sobre la antigua ciudad superponiéndose como una nueva trama. Este tejido de calles, con unas dimensiones suficientemente amplias para redefinir Berlín pero a la vez suficientemente cercanas para participar de la vida cotidiana de la ciudad, se presentaba con independencia de las edificaciones existentes y propuestas como el gran protagonista de la intervención. Proponían un entramado más o menos coincidente con el trazado de la ciudad, dejando que pequeñas torres de esquinas achaflanadas albergaran las oficinas, las viviendas y los espacios comerciales, adosándose tan sólo en una de sus caras al entramado peatonal propuesto. Las calles tenían dimensiones sobradas para la mera conexión de barrios y sin embargo tampoco tenían un uso específico, estaban pensadas para albergar todos los eventos cotidianos que se superponían en los barrios y pequeñas poblaciones de la época. EL PAISAJE COMO PUNTO DE PARTIDA El CIAM de la Sarraz. Hacia una definición de “Urbanismo”. En los congresos CIAM, desde el primer encuentro celebrado en La Sarraz en 1928, la necesidad de definir el término “urbanismo” como método objetivo de proyectar la ciudad, había llevado a excluir aquellas otras consideraciones relativas al paisaje que no eran fácilmente analizables. Las consideraciones entorno al uso, al soleamiento, a la facilidad de acceso, de edificación o a las óptimas densidades de ocupación de un territorio, debían estudiarse sin más distracciones con un análisis objetivo que regiría posteriormente todo planteamiento urbanístico. Así, en el primer punto del acta redactada en francés, del CIAM I de La Sarraz, se definía: “1. Urbanismo es la organización de todas las funciones de la vida colectiva. Se extiende sobre las aglomeraciones urbanas y el campo. La urbanización no puede estar condicionada por las pretensiones de un esteticismo preexistente, su esencia es la de un orden funcional” … De la “Grosstadt” al “StadtLandschaft”. La propuesta de Korn y Rosenberg. En 1957, algunas de las propuestas presentadas al concurso Berlín Hauptstadt, como la de Arthur Korn y Stephen Rosenberg, tuvieron el paisaje como punto de partida del proyecto. La propuesta presentada 15 años después para Berlín Hauptstadt, formando equipo con Stephen Rosenberg, con quien se asociaría poco después en Londres, planteaba un paisaje fluvial generado directamente por una gran placa plana. La placa, como aquellas de origen sedimentario que bordean los cauces de los ríos, fluctuaba ampliando y disminuyendo su ancho y se deshacía incrustándose en la trama urbana existente, ahuecando su interior para dar cabida a los distintos espacios públicos del programa. Como apunta Keneth Frampton , la propuesta presentada por Korn y Rosenberg evolucionaban desde el concepto de Grosstadt (gran ciudad) a la idea de Stadtlandschaft (ciudad-paisaje), ya que si bien en el plan propuesto para la reconstrucción de Londres eran las trazas del viario y la parcelación las que respondían a las prerrogativas del paisaje, en Berlín se daba un paso más, confiando en una superestructura de carácter orgánico la resolución de todos los aspectos tanto institucionales como terciarios que se proponían en el programa, que eran posteriormente incluidos en el proyecto. Los primeros esbozos del paisaje lineal entorno al rio Spree a su paso por Berlín, posibilitaron a los autores reconocer cierta unidad en lo que se presentaba como una amalgama de retazos fragmentados y dispersos en el que la Capital no era reconocible. Pero si bien estos apuntes, habían logrado cierta ilusión de cohesión y continuidad en torno al paisaje fluvial del Spree, al desarrollarse con precisión, los autores trasladaban directamente a las plantas generales y axonometrías de la propuesta los sinuosos contornos, haciendo ciertamente complicado el encuentro con la trama existente (figuras 26 y 27). La gran determinación con que trataban sus autores de no perder las virtudes intuidas en sus primeros apuntes, les llevaba a abandonar las pautas de zonificación y separación por unidades funcionales que se establecían en los CIAM para aproximarse a su realidad constructiva desde una utópica confianza en sus valores plásticos como solución de los problemas urbanos encontrados. Un paisaje de mesetas. La propuesta de Abben, Anderson y Utzon. Si bien por un lado, la adopción de criterios paisajísticos como punto de partida liberaba de las rígidas pautas de zonificación determinadas en las “Grilla CIAM”, a otra escala suponía distanciarse de las condiciones sociales en las que se asentaba la población berlinesa. La mayor parte de los proyectos de paisaje presentados, compartieron una prerrogativa: El espacio verde en torno al Rio Spree, fue propuesto como elemento estructurador de la nueva capital. La propuesta presentada por el equipo de Jorn Utzon, mostraba con radicalidad esta doble condición del paisaje poniendo a prueba las experiencias vividas sobre las plataformas del Yucatán en México. Unas plataformas vinculadas a la nueva red de autopistas berlinesas, que albergaban aparcamientos en su interior y daban soporte a los distintos edificios de usos institucionales. Mientras la cota superior a la masa arbórea pertenecía a una visión limpia de horizonte nítido desde el que se podía divisar el valle del Spree y las infraestructuras que lo atravesaban, el nivel inferior quedaba vinculado a las trazas de la ciudad, ocupado generalmente por las viviendas. NUEVAS HUELLAS PARA OTRA SOCIEDAD Forma y contenido de Berlín-Mitte.La propuesta de Hans Scharoun Al presentar Hans Scharoun el “Kollektiv Plan” para la reconstrucción de la ciudad en 1946, proponía una trama flexible de autopistas o vías de circulación superpuesta a los campos de ruinas y escombros de la Berlín de aquellos años. El área central de la antigua ciudad, se incorporaba a una enorme banda verde que atravesaba todas las áreas urbanas discurriendo en paralelo a las márgenes del rio Spree. Se negaba la cuidad radio concéntrica, para proponer una trama o red flexible paralela y perpendicular al rio. Quedaban sin embargo en el plan muy pocos detalles de lo que podría ocurrir bajo esa trama en el interior de la retícula, tan sólo quedaba esbozado un gran área libre de edificación que cruzaba como una gran banda verde la ciudad continuando la márgenes naturales del rio Spree hacia el Tiergarten. Aunque la definición de las áreas interiores al entramado quedaba quizá fuera del ámbito de estudio que por aquel entonces les estaba encomendado, la idea de superposición de la trama viaria sobre el valle de ruinas del Spree originaba una nueva conciencia que abría la puerta a trabajar con una doble materialidad. Aquella propia de las ciudades antiguas que por aquel entonces describía en diversos textos. La propuesta logró un 2º premio siendo quizás una de las que menos relación mantenía con las anteriores trazas urbanas berlinesas. En el acta del jurado, se reconocía el acierto de desarrollar el área verde atravesando la ciudad en cuanto a “acogida para el que llega de fuera”. En la memoria que presentó Scharoun junto con Wills Ebert al Concurso Berlin Hauptstadt, se analizaba el área de actuación recordando cómo fueron originados los barrios sobre las poblaciones medievales de Friedrichstadt y Luisenstadt anteriores a las grandes obras urbanizadoras de la corte prusiana y al desarrollo de la metrópoli del s. XX: “Características y de identificable naturaleza son las estructuras de los barrios medievales de Luisenstadt y Friedrichstadt. En estas partes de la ciudad la forma y el contenido aún eran idénticos”… …”convivimos con ellas entendiéndolas como parte de nuestro patrimonio, sin ser muy conscientes de sus contenidos y sus transformaciones a lo largo del tiempo. La pérdida en general de sus principios ordenadores lleva a dejar expuesta la ciudad. Estamos en todos los ámbitos de la planificación urbana ante la dificultad de gestionar con eficacia nuestras tensiones y establecer una nueva transición en las relaciones sujeto-objeto. De ahí que el moderno sistema de circulación yuxtapuesto nos lleve a la indecisión y por tanto a la confusión, en lugar de ordenar las diferencias y clarificar.”80 La memoria para Berlín Hauptstadt, presentaba la estructura medieval del área de intervención como una necesidad para no dejar “expuesta a la ciudad”, sin embargo en las planos presentados al concurso no resulta fácil reconocer este cuidado con las trazas históricas en la ciudad, más bien parecía haberse borrado toda huella de otro tiempo en un gran vacío verde. Es posible que las trazas a las que hacían referencia Scharoun y Ebert, fueran aquellas anteriores a las urbanizaciones de la corte prusiana en 1780, cuando los caminos agrícolas y los arrabales extramuros trazaban las primeras huellas de la ciudad sobre las que más tarde se trazarían los barrios de la capital de Prusia. Estas primeras huellas berlinesas recogidas en publicaciones como “Die Dörfer in Berlín” por Hans Jürgen Rach 81muestran un campo ya humanizado, surcado por caminos y huertas, que hacía reconocible la vida de la sociedad que los habitaba. El paisaje chino propuesto por Ebert y Scharoun Un texto titulado “Urbanismo Chino” escrito en Berlín durante los últimos años de guerra y publicado dos años después de su fallecimiento en 1972, ilustrado con algunas de sus acuarelas realizadas en la misma época74, en la monografía sobre su obra de la Akademie der Kunste de Berlin, desvelaba algunas de las preocupaciones urbanas y paisajísticas del arquitecto en el periodo de postguerra. En el texto Scharoun dejaba constancia de su admiración por las formaciones o Gestalt75 con que nacían las ciudades chinas, tomándolas como posible ideal o modelo de un urbanismo organicista. Este otro urbanismo se exponía como consecuencia de las acciones de una cultura y una sociedad determinada, suficientemente humanas como para cristalizar en estructuras capaces de convocar a sus semejantes, y de ordenar entorno a ellas la vida de toda la población. “El arte de proyectar con buen gusto el cielo, la tierra, los árboles y los ríos como parte vinculante de sus creencias, condujo a la cultura china a una sólida tradición del diseño que permitió el perfeccionamiento y desarrollo de la continuidad urbana. …la formulación de una estructura alveolar sociológica y espiri tual del cuerpo político como un organismo vivo que deja espacio para construir con natural continuidad las transformaciones… Ordenando por temas posteriormente, las distintas continuidades urbanas: “…1. Muros. Están en todo el país, en la ciudad, en los distritos sagrados y los palacios, de los barrios familiares a los muros que los rodean. Limitan y comparten el uso del suelo por una parte y por otra, proveen de una escala moderada a las células habitacionales, que les permitía variar de forma ordenada desde la escala cercana a la gran escala espiritual de la ciudad… Los muros trabajan como elementos constructivos creadores de espacio, hacia el interior, con un cierto límite, ya que es este un espacio determinante. 2. Ejes. Se construyen - como ejes ópticos - llevando a las ya mencionadas células hacia su correspondiente significado espiritual... 3. La luz. Su estudio es especialmente importante. Los frentes uniformes de numerosos edificios públicos con los barrios al sur, tienen las personas una relación cotidiana con la luz, cuya claridad y fuerza apenas se puede experimentar en las azarosas ciudades occidentales. 4. Construcción. Con la misma actitud espiritual tan impregnada en su cultura, se ordenan también las células más importantes de la ciudad, las salas y espacios principales de los templos, palacios y edificios públicos de los barrios residenciales. Cual bosquecillos en un paisaje construyen condensaciones, sin delimitar estas células urbanas. 5. Tejados. (Exagerando) Sí, flotan cual nubes sobre la tierra sobre las construcciones realizadas con esa actitud espiritual. Tienden sobre esas construcciones la capa probablemente más simbólica de todas. Con ligeros matices, los chinos logran agrandar el pequeño espectáculo de la protección de la techumbre. 6. Las terrazas elevadas. El terreno se prepara con moderación y con cuidada moderación se distancian del suelo, porque la vida no se separa de la esclavitud de la tierra. Sin embargo está enriqueciendo y transformando el mundo a su escala, sin hacer ruido.… 7. Calles. Las vías representativas como la que lleva en Pekín hasta la puerta de entrada al palacio de la ciudad prohibida, contrastan con las interiores que son meros carriles de descongestión de los densos distritos residenciales. Estas calles son franjas de arcilla que discurren entre las altas tapias de las casas donde tan solo tiene lugar el juego de la vida, en familia. De este modo las pequeñas calles con su forma cambiante, son también parte de un único orden espiritual, formadas por la expansión sustancial de las construcciones adyacentes… 8. El Paisaje. Se tienen así paisajes a distintas escalas, realizados o desarrollados desde tamaños inminentes a escalas cercanas a la mano del hombre. También cuando los paisajes están fuera de los ámbitos urbanos son ordenados y utilizados, quedando en ellos bellos retazos asilvestrados, porciones vivas y muertas, y refugios de los demonios. Naturalezas ocupadas y libremente vividas en un rico intercambio. Ya sean partes de paisajes grandes o pequeñas, fuera o dentro de las ciudades, son ciertamente de distintos escalas pero no por ello distintos. No hay (como en los jardines occidentales) naturalezas desarmadas. …” Estos aspectos del urbanismo chino revelaban una gran preocupación por aquellos temas relativos a las características de las condiciones públicas de las ciudades y de sus paisajes, al tiempo que un cierto distanciamiento del problema de la vivienda, aún con las acusadas carencias que en este sentido presentaban las ciudades del periodo de postguerra y a pesar de haber sido tantas veces el centro de los intereses de los CIAM. Dejaban entrever la necesidad de encontrar la ciudad como cristalización de una cultura y sociedad. Las instituciones públicas debían ser capaces de convocar a la población mientras que las casas tenían su propia existencia más o menos espontánea y ligada a la tierra, con un mayor grado de libertad e independencia respecto a los planes de los urbanistas. Pero muchas de estas condiciones que Scharoun encontraba en las ciudades chinas, estaban también presentes en la mayoría de las ciudades medievales centroeuropeas, incluyendo a la propia Berlín. La ciudad medieval de Praga, con su característico skyline de cúpulas, cubiertas y torres ABSTRACT Hypothesis Working method Study state 1. BERLIN HAUPTSTADT: 1945 – 1958 1945. Governments and divisions in post-war Berlin 1946. The “KollektivPlan” 1948. The Bonatz Plan 1957. The IBA´57 2. THE SET-UP Planning a Capital. “Berlin Hauptstadt” The working area The jury and the competition programme The refute of Walter Gropius The Berlin Capital requirements 3. MONUMENTALITY AND CLOSER SCALES The C.I.A.M. at Bridgewater and Hoddesdon. Modern urbanism as institutional urban planning thinking Finalists and Shortlisted proposals 4. OPEN FLOOR PLAN AND PREEXISTENCES AFTER WAR “The as found” The C.I.A.M. 7 in Bergamo. About the rebuild of old cities “Nothing to conserve.” Le Corbusier´s Plan for Berlin. From Inside. The plan proposed by Luiggi Piccinato. 5. LIFE IN THE STREET. OVERLAYED USES ON ANCIENT PUBLIC SPACES Form Hoddesdon to Dubrovnic, and the Doorn manifesto. Shared uses. The Plan proposed by Van der Broeck and Bakema Streets in the air. The Plan proposed by Alison and Peter Smithson “The charged void”. Two chairs and an action trail. 6. LANDSCAPE AS A URBAN PRINCIPLE 1957. The irruption of urban motorways Plan Towards a definition for “Urbanism.” The C.I.A.M. in LaSarraz. From “Grosstadt” to “StadtLandschaft.” The proposal by Korn and Rosemberg Chinese landscapes. The proposal by Ebert and Scharoun 7. FOOTPRINTS OF A NEW SOCIETY The influence of other avant-gardes Paths and trails in Albert H. Steiner proposal Berlín-Mitte Form and contains. References to medieval city in the proposal by Scharoun From Friedrichshein to Berlin Hauptstadt. 8. CONCLUSIONS Changing context and pragmatism Human city necessity after war BIBLIOGRAPHY Essential Bibliography Specific publications Specific publications contemporary to “Berlin Hauptstadt” competition General Bibliography APPENDIX Documents Specific publications ABSTRACT Public space, being perhaps one of the urbanism most studied topics on last years, however lacks events sufficiently distant in time to recognize its recent history. The emergence of organic and later existentialism philosophies after Second World War changed the way of thinking in those areas of knowledge relating to urbanism and city planning. The switched context found in European capitals after the War crystallized the need for a "humanized" city. This need is recognized in some isolated proposals of those years , but these questions were also present in the way public space was thought in different debates and urban planning discussions hold at the International Congresses of Modern Architecture, where the decisive influence of the "Athens Charter" prerogatives and its several reviews was on the basis of its final dissolution staged by Team X in Oterloo in 1959. Despite the on going revisions conducted in the post-war period, the gap between theoretical assumptions and urban realities that CIAM participants found at that time, led to some skepticism and a loss of interest in urban theories and aimed them to set on a projective practice, solving specific issues for further general conclusions. The "Berlin Hauptstadt" Competition, an ambitious Plan for the capital of a united Germany convened in Berlin 1957 by the "Internationalles Bauaustellung" was a last episode in this period of discussions and dissolution of modern urbanism that shows uncertainties and contradictions of some participants when were faced to the public space projects distrusting their theoretical bases. While building projects regarded more or less as they were in pre-war period, in some cases, the public space projects presented in the submitted proposals, are perceived with some important variations comparing to the planning guidelines defended by the CIAM urbanism at that time. Thus, the study of Berlin Hauptstadt competition is here presented as a compilation of these pragmatic responses to the switched context, which will allow us to find nuances and differences of interpretation between some of the presented proposals to reveal through them latent conditions in the public space projects at European post-war. CONCLUSIONS Changing context and pragmatism After having a view of the different concepts used by the participants in their proposals presented to the competition, there is a first conclusion we can drop out. The postwar in Berlin, from the Postdam conference until the Wall erection in august 1961, revealed a frozen period in its recent history on which no urban plan was developed under urban arguments nor theories. Most of the urban changes occurred where done by political decisions. Somehow the global urbanism promoted by the postwar CIAMs helped to this situation, the City planning as a standardized method allowed politicians to use it as a tool for propaganda and so to fight for their own interests. Although the specific situation of Berlin, the use of urbanism as a tool for propaganda has been also a usual problem after second world war in some European cities. But meanwhile modern urbanism became an institutional tool and architects and urban planners refuted it beginning then their own research on city planning from a projective practice by solving concrete questions they found in the given context. Thus, we have the proposal of Piccinato in Berlin Hauptstadt working with the existing to develop a non conclude city, far away from previous works like the one of Villa Sabaudia (1934) organized as an axial and well oriented, shaped city. We find in the Smithson proposal a complex city centre with a “charged void” conception, much more picturesque and aerial than the one projected for Golden Lane, four years before. Their concept “area of quietude” proposed at the Berlin competition was used once again a year after, in the elevated plaza that support the Economist buildings. At last we find that Landscape was again used to city planning and thus many proposals were not based on such concepts as transport main lines or building zonings, but in imagined landscapes, which were after filled up with the program. The proposal presented by Arthur Korn and Stephen Rosenberg was quite a renounce of the CIAM principles, which Korn drew up with the “Ernst May Brigade” in the soviet cities between 1930 and 1933 and ten years later in London with the MARS group. Utzon with Abben and Anderson, also settled up another landscape concept which he import from distant cultures to Berlin. He used the Mayas platforms from the Yucatan half island, and the oriental ones as well, in different projects during those years when he was fling constantly from Denmark to Sidney. But he used it not only to project specific buildings like the one of Sidney Concert Hall, in Berlin and later in other places of a smaller scale such concepts were used for urban planning as well. Landscape was also the final solution for a concept, which Hans Scharoun was working on during all these postwar years in Berlin. The Spree-band he already proposed inspired by Peter Friedrich in the Kollektivplan (1946) as a consequence of the traffic main lines and as a logic separation of functions of the city, was presented in Berlin Hauptstadt as a liberated build mass which disposed at the Leipzigerstrasse permitted Tiergarten Park to be continuously expanded all over the Spree valley. The enormous build mass shaped with gold roofs, presented a high level of public spaces that were able to convoke and bring up citizens for having a view of their entire inhabited landscape. The necessity of a human city after war Despite of their different approaches to the Berlin Hauptstadt solitudes, most of the presented proposals showed up a concerning about what was named: “Humanizierung der Stadt” (Humanization of the city), that was a exposed necessity in their submitted texts. But humanizing was a extremely difficult goal at that time in Berlin, a city immerse at the epicenter of the “Cold War” After so many decades isolated and frozen by the “Wall”, Berlin or better the Berliners have developed its own way for city planning. The restricted life they could overlay to the city voids, have leave specific footprints and shaped the ground showing up their own the daily uses of the city. After the “Wall fallen” the great efforts token to unify the divided city by both governments revealed another, thus softly, division. The one established between a real city sculpted by the citizens daily life and other one planned by the council occupying most of these charged voids with a new remake of the Wagner Plan (1925) or the reconstruction of the 19th century city. Even now having a walk by the city void grounds that once were planned in the Berlin Hauptstadt competition, is possible to see the great value they still have for preserving a sort of places with a closer scale, in such a great City. Sometimes, the footprints confirm some of the ideas that were appointed in the competitors proposals. The inner city proposed by Piccinato is present now in very different places like “PrizessinGarten” or “Pfefferberg” which with their own specific character made from their inside uses, influence the whole neighborhood where they are sited. The ground beside the Reichstag, contrary to the idea of an open-air parliament presented by the Smithson, is today marked with the footprints of the rows of the visitors who want to climb up the new dome and take a view. Meanwhile footprints in other places such as the Mauerpark at Prenzlauerberg show us a rich and with various uses place, where citizens find them selves. Also the landscape is present in some public spaces of the city freely occupied as observatories. The intense relation with the river proposed by Korn and Rosenberg can be lived in the bridge Admiralbrücke where the spring solstice is in alignment with the Landwehrkanal and so people meet this day to presence the sunset. Footprints on both sides of the canal bring the observers to the meeting point. One of the few elevations existing in the city grounds, hosts footprints from the Grossbeerenstrasse and Tempelhofstrasse avenues that are self concentrated in the National Monument projected by Schinkel in 1822, in memoriam of the Independence war fallen. The observatory an octagonal base which crowns the ViktoriaPark, give to citizens a place to sit down all over the hill skirts and watch the city landscape and its skylines. This kind of city recognition was also the basis of the landscape proposed by Hans Scharoun for the competition.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
En el futuro, la gestión del tráfico aéreo (ATM, del inglés air traffic management) requerirá un cambio de paradigma, de la gestión principalmente táctica de hoy, a las denominadas operaciones basadas en trayectoria. Un incremento en el nivel de automatización liberará al personal de ATM —controladores, tripulación, etc.— de muchas de las tareas que realizan hoy. Las personas seguirán siendo el elemento central en la gestión del tráfico aéreo del futuro, pero lo serán mediante la gestión y toma de decisiones. Se espera que estas dos mejoras traigan un incremento en la eficiencia de la gestión del tráfico aéreo que permita hacer frente al incremento previsto en la demanda de transporte aéreo. Para aplicar el concepto de operaciones basadas en trayectoria, el usuario del espacio aéreo (la aerolínea, piloto, u operador) y el proveedor del servicio de navegación aérea deben negociar las trayectorias mediante un proceso de toma de decisiones colaborativo. En esta negociación, es necesaria una forma adecuada de compartir dichas trayectorias. Compartir la trayectoria completa requeriría un gran ancho de banda, y la trayectoria compartida podría invalidarse si cambiase la predicción meteorológica. En su lugar, podría compartirse una descripción de la trayectoria independiente de las condiciones meteorológicas, de manera que la trayectoria real se pudiese calcular a partir de dicha descripción. Esta descripción de la trayectoria debería ser fácil de procesar usando un programa de ordenador —ya que parte del proceso de toma de decisiones estará automatizado—, pero también fácil de entender para un operador humano —que será el que supervise el proceso y tome las decisiones oportunas—. Esta tesis presenta una serie de lenguajes formales que pueden usarse para este propósito. Estos lenguajes proporcionan los medios para describir trayectorias de aviones durante todas las fases de vuelo, desde la maniobra de push-back (remolcado hasta la calle de rodaje), hasta la llegada a la terminal del aeropuerto de destino. También permiten describir trayectorias tanto de aeronaves tripuladas como no tripuladas, incluyendo aviones de ala fija y cuadricópteros. Algunos de estos lenguajes están estrechamente relacionados entre sí, y organizados en una jerarquía. Uno de los lenguajes fundamentales de esta jerarquía, llamado aircraft intent description language (AIDL), ya había sido desarrollado con anterioridad a esta tesis. Este lenguaje fue derivado de las ecuaciones del movimiento de los aviones de ala fija, y puede utilizarse para describir sin ambigüedad trayectorias de este tipo de aeronaves. Una variante de este lenguaje, denominada quadrotor AIDL (QR-AIDL), ha sido desarrollada en esta tesis para permitir describir trayectorias de cuadricópteros con el mismo nivel de detalle. Seguidamente, otro lenguaje, denominado intent composite description language (ICDL), se apoya en los dos lenguajes anteriores, ofreciendo más flexibilidad para describir algunas partes de la trayectoria y dejar otras sin especificar. El ICDL se usa para proporcionar descripciones genéricas de maniobras comunes, que después se particularizan y combinan para formar descripciones complejas de un vuelo. Otro lenguaje puede construirse a partir del ICDL, denominado flight intent description language (FIDL). El FIDL especifica requisitos de alto nivel sobre las trayectorias —incluyendo restricciones y objetivos—, pero puede utilizar características del ICDL para proporcionar niveles de detalle arbitrarios en las distintas partes de un vuelo. Tanto el ICDL como el FIDL han sido desarrollados en colaboración con Boeing Research & Technology Europe (BR&TE). También se ha desarrollado un lenguaje para definir misiones en las que interactúan varias aeronaves, el mission intent description language (MIDL). Este lenguaje se basa en el FIDL y mantiene todo su poder expresivo, a la vez que proporciona nuevas semánticas para describir tareas, restricciones y objetivos relacionados con la misión. En ATM, los movimientos de un avión en la superficie de aeropuerto también tienen que ser monitorizados y gestionados. Otro lenguaje formal ha sido diseñado con este propósito, llamado surface movement description language (SMDL). Este lenguaje no pertenece a la jerarquía de lenguajes descrita en el párrafo anterior, y se basa en las clearances (autorizaciones del controlador) utilizadas durante las operaciones en superficie de aeropuerto. También proporciona medios para expresar incertidumbre y posibilidad de cambios en las distintas partes de la trayectoria. Finalmente, esta tesis explora las aplicaciones de estos lenguajes a la predicción de trayectorias y a la planificación de misiones. El concepto de trajectory language processing engine (TLPE) se usa en ambas aplicaciones. Un TLPE es una función de ATM cuya principal entrada y salida se expresan en cualquiera de los lenguajes incluidos en la jerarquía descrita en esta tesis. El proceso de predicción de trayectorias puede definirse como una combinación de TLPEs, cada uno de los cuales realiza una pequeña sub-tarea. Se le ha dado especial importancia a uno de estos TLPEs, que se encarga de generar el perfil horizontal, vertical y de configuración de la trayectoria. En particular, esta tesis presenta un método novedoso para la generación del perfil vertical. El proceso de planificar una misión también se puede ver como un TLPE donde la entrada se expresa en MIDL y la salida consiste en cierto número de trayectorias —una por cada aeronave disponible— descritas utilizando FIDL. Se ha formulado este problema utilizando programación entera mixta. Además, dado que encontrar caminos óptimos entre distintos puntos es un problema fundamental en la planificación de misiones, también se propone un algoritmo de búsqueda de caminos. Este algoritmo permite calcular rápidamente caminos cuasi-óptimos que esquivan todos los obstáculos en un entorno urbano. Los diferentes lenguajes formales definidos en esta tesis pueden utilizarse como una especificación estándar para la difusión de información entre distintos actores de la gestión del tráfico aéreo. En conjunto, estos lenguajes permiten describir trayectorias con el nivel de detalle necesario en cada aplicación, y se pueden utilizar para aumentar el nivel de automatización explotando esta información utilizando sistemas de soporte a la toma de decisiones. La aplicación de estos lenguajes a algunas funciones básicas de estos sistemas, como la predicción de trayectorias, han sido analizadas. ABSTRACT Future air traffic management (ATM) will require a paradigm shift from today’s mainly tactical ATM to trajectory-based operations (TBOs). An increase in the level of automation will also relieve humans —air traffic control officers (ATCOs), flight crew, etc.— from many of the tasks they perform today. Humans will still be central in this future ATM, as decision-makers and managers. These two improvements (TBOs and increased automation) are expected to provide the increase in ATM performance that will allow coping with the expected increase in air transport demand. Under TBOs, trajectories are negotiated between the airspace user (an airline, pilot, or operator) and the air navigation service provider (ANSP) using a collaborative decision making (CDM) process. A suitable method for sharing aircraft trajectories is necessary for this negotiation. Sharing a whole trajectory would require a high amount of bandwidth, and the shared trajectory might become invalid if the weather forecast changed. Instead, a description of the trajectory, decoupled from the weather conditions, could be shared, so that the actual trajectory could be computed from this trajectory description. This trajectory description should be easy to process using a computing program —as some of the CDM processes will be automated— but also easy to understand for a human operator —who will be supervising the process and making decisions. This thesis presents a series of formal languages that can be used for this purpose. These languages provide the means to describe aircraft trajectories during all phases of flight, from push back to arrival at the gate. They can also describe trajectories of both manned and unmanned aircraft, including fixedwing and some rotary-wing aircraft (quadrotors). Some of these languages are tightly interrelated and organized in a language hierarchy. One of the key languages in this hierarchy, the aircraft intent description language (AIDL), had already been developed prior to this thesis. This language was derived from the equations of motion of fixed-wing aircraft, and can provide an unambiguous description of fixed-wing aircraft trajectories. A variant of this language, the quadrotor AIDL (QR-AIDL), is developed in this thesis to allow describing a quadrotor aircraft trajectory with the same level of detail. Then, the intent composite description language (ICDL) is built on top of these two languages, providing more flexibility to describe some parts of the trajectory while leaving others unspecified. The ICDL is used to provide generic descriptions of common aircraft manoeuvres, which can be particularized and combined to form complex descriptions of flight. Another language is built on top of the ICDL, the flight intent description language (FIDL). The FIDL specifies high-level requirements on trajectories —including constraints and objectives—, but can use features of the ICDL to provide arbitrary levels of detail in different parts of the flight. The ICDL and FIDL have been developed in collaboration with Boeing Research & Technology Europe (BR&TE). Also, the mission intent description language (MIDL) has been developed to allow describing missions involving multiple aircraft. This language is based on the FIDL and keeps all its expressive power, while it also provides new semantics for describing mission tasks, mission objectives, and constraints involving several aircraft. In ATM, the movement of aircraft while on the airport surface also has to be monitored and managed. Another formal language has been designed for this purpose, denoted surface movement description language (SMDL). This language does not belong to the language hierarchy described above, and it is based on the clearances used in airport surface operations. Means to express uncertainty and mutability of different parts of the trajectory are also provided. Finally, the applications of these languages to trajectory prediction and mission planning are explored in this thesis. The concept of trajectory language processing engine (TLPE) is used in these two applications. A TLPE is an ATM function whose main input and output are expressed in any of the languages in the hierarchy described in this thesis. A modular trajectory predictor is defined as a combination of multiple TLPEs, each of them performing a small subtask. Special attention is given to the TLPE that builds the horizontal, vertical, and configuration profiles of the trajectory. In particular, a novel method for the generation of the vertical profile is presented. The process of planning a mission can also be seen as a TLPE, where the main input is expressed in the MIDL and the output consists of a number of trajectory descriptions —one for each aircraft available in the mission— expressed in the FIDL. A mixed integer linear programming (MILP) formulation for the problem of assigning mission tasks to the available aircraft is provided. In addition, since finding optimal paths between locations is a key problem to mission planning, a novel path finding algorithm is presented. This algorithm can compute near-shortest paths avoiding all obstacles in an urban environment in very short times. The several formal languages described in this thesis can serve as a standard specification to share trajectory information among different actors in ATM. In combination, these languages can describe trajectories with the necessary level of detail for any application, and can be used to increase automation by exploiting this information using decision support tools (DSTs). Their applications to some basic functions of DSTs, such as trajectory prediction, have been analized.
Resumo:
Four rumen-fistulated sheep fed a 66:34 alfalfa hay:concentrate diet were used as donors to investigate the effect of rumen contents’ treatment on microbial populations in the resulting fluid. Rumen contents were sampled from each individual sheep and subjected to the following treatments: SQ: squeezed through 4 layers of cheesecloth; FIL: SQ treatment and further filtration through a 100-μm nylon cloth; STO: reated with a Stomacher® for 3 min at 230 rev min-1 and followed by SQ. Microbial populations in the fluid were analysed by real-time PCR and bacterial diversity was assessed by the automated ribosomal intergenic spacer analysis (ARISA) of the 16S ribosomal DNA. Bacterial DNA concentrations and relative abundance of Ruminococcus flavefaciens, arqueal and fungal DNA did not differ (P>0.05) between treatments. In contrast, STO treatment decreased (P<0.05) protozoal DNA concentrations and increased (P<0.05) the relative abundance of Fibrobacter succinogenes compared with SQ method. There were no differences (P>0.05) between treatments either in the Shannon index or in the number of peaks in the ARISA electropherograms, indicating no effect on bacterial diversity. Studies analyzing the influence on the tested methods on fermentation characteristics of different substrates when the fluid is used as inoculum is required.