42 resultados para PROCESO DE BARCELONA: UNIÓN PARA EL MEDITERRÁNEO
Resumo:
El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.
Resumo:
Durante las últimas décadas el objetivo principal de la silvicultura y la gestión forestal en Europa ha pasado de ser la producción de madera a ser la gestión sostenible de los ecosistemas, por lo que se deben considerar todos los bienes y servicios que proporcionan los bosques. En consecuencia, es necesario contar con información forestal periódica de diversos indicadores forestales a nivel europeo para apoyar el desarrollo y la implementación de políticas medioambientales y que se realice una gestión adecuada. Para ello, se requiere un seguimiento intensivo sobre el estado de los bosques, por lo que los Inventarios Forestales Nacionales (IFN), (principal fuente de información forestal a gran escala), han aumentado el número de variables muestreadas para cumplir con los crecientes requerimientos de información. Sin embargo, las estimaciones proporcionadas por los diferentes países no son fácilmente comparables debido a las diferencias en las definiciones, los diseños de muestreo, las variables medidas y los protocolos de medición. Por esto, la armonización de los datos que proporcionan los diferentes países es fundamental para la contar con una información forestal sólida y fiable en la Unión europea (UE). La presente tesis tiene dos objetivos principales: (i) establecer el diseño de una metodología para evaluar la biodiversidad forestal en el marco del Inventario forestal nacional de España teniendo en cuenta las diferentes iniciativas nacionales e internacionales, con el objetivo de producir estimaciones comparables con las de otros países de la UE y (ii) armonizar los indicadores más relevantes para satisfacer los requerimientos nacionales e internacionales. Como consecuencia del estudio realizado para alcanzar el primer objetivo, la metodología diseñada para estimar la biodiversidad fue adoptada por el Tercer Inventario forestal nacional. Ésta se componía de indicadores agrupados en: cobertura del suelo, composición de árboles y especies de arbustos, riqueza de especies herbáceas y helechos, especies amenazadas, estructura, madera muerta, y líquenes epífitos. Tras el análisis del diseño metodológico y de los datos proporcionados, se observó la conveniencia de modificarla con el fin de optimizar los costes, viabilidad, calidad y cantidad de los datos registrados. En consecuencia, en el Cuarto Inventario Forestal Nacional se aplica una metodología modificada, puesto que se eliminó el muestreo de especies herbáceas y helechos, de líquenes epífitos y de especies amenazadas, se modificaron los protocolos de la toma de datos de estructura y madera muerta y se añadió el muestreo de especies invasoras, edad, ramoneo y grado de naturalidad de la masa. En lo que se refiere al segundo objetivo, se ha avanzado en la armonización de tres grupos de variables considerados como relevantes en el marco de los IFN: los indicadores de vegetación no arbórea (que juegan un papel relevante en los ecosistemas, es donde existe la mayor diversidad de plantas y hasta ahora no se conocían los datos muestreados en los IFN), la determinación de los árboles añosos (que tienen un importante papel como nicho ecológico y su identificación es especialmente relevante para la evaluación de la biodiversidad forestal) y el bosque disponible para el suministro de madera (indicador básico de los requerimientos internacionales de información forestal). Se llevó a cabo un estudio completo de la posible armonización de los indicadores de la vegetación no arbórea en los IFN. Para ello, se identificaron y analizaron las diferentes definiciones y diseños de muestreo empleados por los IFN, se establecieron definiciones de referencia y se propusieron y analizaron dos indicadores que pudiesen ser armonizados: MSC (mean species cover) que corresponde a la media de la fracción de cabida cubierta de cada especie por tipo de bosque y MTC (mean total cover). Se estableció una nueva metodología que permite identificar los árboles añosos con los datos proporcionados por los inventarios forestales nacionales con el objetivo de proporcionar una herramienta eficaz para facilitar la gestión forestal considerando la diversidad de los sistemas forestales. Se analizó el concepto de "bosque disponible para el suministro de madera" (FAWS) estudiando la consistencia de la información internacional disponible con el fin de armonizar su estimación y de proporcionar recomendaciones para satisfacer los requerimientos europeos. Como resultado, se elaboró una nueva definición de referencia de FAWS (que será adoptada por el proceso paneuropeo) y se analiza el impacto de la adopción de esta nueva definición en siete países europeos. El trabajo realizado en esta tesis, puede facilitar el suministrar y/o armonizar parcial o totalmente casi la mitad de los indicadores de información forestal solicitados por los requerimientos internacionales (47%). De éstos, prácticamente un 85% tienen relación con los datos inventariados empleando la metodología propuesta para la estimación de la biodiversidad forestal, y el resto, con el establecimiento de la definición de bosque disponible para el suministro de madera. No obstante, y pese a que esta tesis supone un avance importante, queda patente que las necesidades de información forestal son cambiantes y es imprescindible continuar el proceso de armonización de los IFN europeos. ABSTRACT Over the last few decades, the objectives on forestry and forest management in Europe have shifted from being primarily focused on wood production to sustainable ecosystem management, which should consider all the goods and services provided by the forest. Therefore, there is a continued need for forest indicators and assessments at EU level to support the development and implementation of a number of European environmental policies and to conduct a proper forest management. To address these questions, intensive monitoring on the status of forests is required. Therefore, the scope of National Forest Inventories (NFIs), (primary source of data for national and large-area assessments), has been broadened to include new variables to meet these increasing information requirements. However, estimates produced by different countries are not easily comparable because of differences in NFI definitions, plot configurations, measured variables, and measurement protocols. As consequence, harmonizing data produced at national level is essential for the production of sound EU forest information. The present thesis has two main aims: (i) to establish a methodology design to assess forest biodiversity in the frame of the Spanish National Forest Inventory taking into account the different national and international initiatives with the intention to produce comparable estimates with other EU countries and (ii) to harmonize relevant indicators for national and international requirements. In consequence of the work done related to the first objective, the established methodology to estimate forest biodiversity was adopted and launched under the Third National Forest Inventory. It was composed of indicators grouped into: cover, woody species composition, richness of herbaceous species and ferns, endangered species, stand structure, dead wood, and epiphytic lichens. This methodology was analyzed considering the provided data, time costs, feasibility, and requirements. Consequently, in the ongoing Fourth National Forest Inventory a modified methodology is applied: sampling of herbaceous species and ferns, epiphytic lichens and endangered species were removed, protocols regarding structure and deadwood were modified, and sampling of invasive species, age, browsing impact and naturalness were added. As regards the second objective, progress has been made in harmonizing three groups of variables considered relevant in the context of IFN: Indicators of non-tree vegetation (which play an important role in forest ecosystems, it is where the highest diversity of plants occur and so far the related sampled data in NFIs were not known), the identification of old-growth trees (which have an important role as ecological niche and its identification is especially relevant for the assessment of forest biodiversity) and the available forest for wood supply (basic indicator of international forestry information requirements). A complete analysis of ground vegetation harmonization possibilities within NFIs frame was carried on by identifying and analyzing the different definitions and sampling techniques used by NFIs, providing reference definitions related to ground vegetation and proposing and analyzing two ground vegetation harmonized indicators: “Mean species cover” (MSC) and “Mean total cover” (MTC) for shrubs by European forest categories. A new methodology based on NFI data was established with the aim to provide an efficient tool for policy makers to estimate the number of old-growth trees and thus to be able to perform the analysis of the effect of forest management on the diversity associated to forest systems. The concept of “forest available for wood supply” (FAWS) was discussed and clarified, analyzing the consistency of the available international information on FAWS in order to provide recommendations for data harmonization at European level regarding National Forest Inventories (NFIs). As a result, a new reference definition of FAWS was provided (which will be adopted in the pan-European process) and the consequences of the use of this new definition in seven European countries are analyzed. The studies carried on in this thesis, can facilitate the supply and/or harmonization partially or fully of almost half of the forest indicators (47%) needed for international requirements. Of these, nearly 85% are related to inventoried data using the proposed methodology for the estimation of forest biodiversity, and the rest, with the establishment of the definition of forest available for wood supply. However, despite this thesis imply an important development, forest information needs are changing and it is imperative to continue the process of harmonization of European NFIs.
Resumo:
Las compañías de desarrollo de software buscan reducir costes a través del desarrollo de diseños que permitan: a) facilidad en la distribución del trabajo de desarrollo, con la menor comunicación de las partes; b) modificabilidad, permitiendo realizar cambios sobre un módulo sin alterar las otras partes y; c) comprensibilidad, permitiendo estudiar un módulo del sistema a la vez. Estas características elementales en el diseño de software se logran a través del diseño de sistemas cuasi-descomponibles, cuyo modelo teórico fue introducido por Simon en su búsqueda de una teoría general de los sistemas. En el campo del diseño de software, Parnas propone un camino práctico para lograr sistemas cuasi-descomponibles llamado el Principio de Ocultación de Información. El Principio de Ocultación de Información es un criterio diferente de descomposición en módulos, cuya implementación logra las características deseables de un diseño eficiente a nivel del proceso de desarrollo y mantenimiento. El Principio y el enfoque orientado a objetos se relacionan debido a que el enfoque orientado a objetos facilita la implementación del Principio, es por esto que cuando los objetos empiezan a tomar fuerza, también aparecen paralelamente las dificultades en el aprendizaje de diseño de software orientado a objetos, las cuales se mantienen hasta la actualidad, tal como se reporta en la literatura. Las dificultades en el aprendizaje de diseño de software orientado a objetos tiene un gran impacto tanto en las aulas como en la profesión. La detección de estas dificultades permitirá a los docentes corregirlas o encaminarlas antes que éstas se trasladen a la industria. Por otro lado, la industria puede estar advertida de los potenciales problemas en el proceso de desarrollo de software. Esta tesis tiene como objetivo investigar sobre las dificultades en el diseño de software orientado a objetos, a través de un estudio empírico. El estudio fue realizado a través de un estudio de caso cualitativo, que estuvo conformado por tres partes. La primera, un estudio inicial que tuvo como objetivo conocer el entendimiento de los estudiantes alrededor del Principio de Ocultación de Información antes de que iniciasen la instrucción. La segunda parte, un estudio llevado a cabo a lo largo del período de instrucción con la finalidad de obtener las dificultades de diseño de software y su nivel de persistencia. Finalmente, una tercera parte, cuya finalidad fue el estudio de las dificultades esenciales de aprendizaje y sus posibles orígenes. Los participantes de este estudio pertenecieron a la materia de Software Design del European Master in Software Engineering de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Los datos cualitativos usados para el análisis procedieron de las observaciones en las horas de clase y exposiciones, entrevistas realizadas a los estudiantes y ejercicios enviados a lo largo del período de instrucción. Las dificultades presentadas en esta tesis en sus diferentes perspectivas, aportaron conocimiento concreto de un estudio de caso en particular, realizando contribuciones relevantes en el área de diseño de software, docencia, industria y a nivel metodológico. ABSTRACT The software development companies look to reduce costs through the development of designs that will: a) ease the distribution of development work with the least communication between the parties; b) changeability, allowing to change a module without disturbing the other parties and; c) understandability, allowing to study a system module at a time. These basic software design features are achieved through the design of quasidecomposable systems, whose theoretical model was introduced by Simon in his search for a general theory of systems. In the field of software design, Parnas offers a practical way to achieve quasi-decomposable systems, called The Information Hiding Principle. The Information Hiding Principle is different criterion for decomposition into modules, whose implementation achieves the desirable characteristics of an efficient design at the development and maintenance level. The Principle and the object-oriented approach are related because the object-oriented approach facilitates the implementation of The Principle, which is why when objects begin to take hold, also appear alongside the difficulties in learning an object-oriented software design, which remain to this day, as reported in the literature. Difficulties in learning object-oriented software design has a great impact both in the classroom and in the profession. The detection of these difficulties will allow teachers to correct or route them before they move to the industry. On the other hand, the industry can be warned of potential problems related to the software development process. This thesis aims to investigate the difficulties in learning the object-oriented design, through an empirical study. The study was conducted through a qualitative case study, which consisted of three parts. The first, an initial study was aimed to understand the knowledge of the students around The Information Hiding Principle before they start the instruction. The second part, a study was conducted during the entire period of instruction in order to obtain the difficulties of software design and their level of persistence. Finally, a third party, whose purpose was to study the essential difficulties of learning and their possible sources. Participants in this study belonged to the field of Software Design of the European Master in Software Engineering at the Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. The qualitative data used for the analysis came from the observations in class time and exhibitions, performed interviews with students and exercises sent over the period of instruction. The difficulties presented in this thesis, in their different perspectives, provided concrete knowledge of a particular case study, making significant contributions in the area of software design, teaching, industry and methodological level.
Resumo:
El baloncesto es un deporte basado en unos principios de juego sencillos y unas exigencias físicas y técnicas en la iniciación asumibles por todos los alumnos. Ofreciendo las herramientas adecuadas y adaptando las tareas de aprendizaje al contexto se puede conseguir una competencia elevada. Es necesario llevar a cabo una planificación adecuada y una selección de tareas apropiadas. El juego posee unas características que le convierten en un elemento con gran potencial educativo, en especial para Educación Física, debido al placer que genera y al espacio que ofrece para expresarse y utilizar el cuerpo. A través de este trabajo se propone una Unidad Didáctica de Baloncesto vertebrada por el uso del juego como elemento vehicular. La Investigación-acción es un proceso que explora directamente sobre el terreno, siendo muy sencillo y práctico para aplicar en el ámbito educativo. Engloba de manera casi simultánea el proceso de investigación y el de búsqueda de soluciones. Para analizar el resultado de dicha metodología se exponen los elementos básicos para llevar a cabo un trabajo de Investigación-acción paralelo y adaptado al Baloncesto y la Unidad Didáctica. Basketball is a sport based on easy game principles. Every student is capable of reaching physical and technical request for amateur practice. High skills in basketball can be obtained with suitable tools and adapted activities to the current environment. Appropriate planning and tasks are required for that purpose. In education game activities turn to be an option with excellent opportunities, especially for physical education. It provides students a way to express feelings, practice with their body and have fun. The aim of this project is to propose a basketball teaching unit focused on gaming tasks. Participatory action research intervenes directly on the field, simple and practical to be used in educational context. This model links researching and problem solving on the same process. The basic path to perform a participatory action research is given to analyze the results of carrying out the proposed teaching unit.
Resumo:
La seguridad y fiabilidad de los procesos industriales son la principal preocupación de los ingenieros encargados de las plantas industriales. Por lo tanto, desde un punto de vista económico, el objetivo principal es reducir el costo del mantenimiento, el tiempo de inactividad y las pérdidas causadas por los fallos. Por otra parte, la seguridad de los operadores, que afecta a los aspectos sociales y económicos, es el factor más relevante a considerar en cualquier sistema Debido a esto, el diagnóstico de fallos se ha convertido en un foco importante de interés para los investigadores de todo el mundo e ingenieros en la industria. Los principales trabajos enfocados en detección de fallos se basan en modelos de los procesos. Existen diferentes técnicas para el modelado de procesos industriales tales como máquinas de estado, árboles de decisión y Redes de Petri (RdP). Por lo tanto, esta tesis se centra en el modelado de procesos utilizando redes de petri interpretadas. Redes de Petri es una herramienta usada en el modelado gráfico y matemático con la habilidad para describir información de los sistemas de una manera concurrente, paralela, asincrona, distribuida y no determinística o estocástica. RdP son también una herramienta de comunicación visual gráfica útil como lo son las cartas de flujo o diagramas de bloques. Adicionalmente, las marcas de las RdP simulan la dinámica y concurrencia de los sistemas. Finalmente, ellas tienen la capacidad de definir ecuaciones de estado específicas, ecuaciones algebraicas y otros modelos que representan el comportamiento común de los sistemas. Entre los diferentes tipos de redes de petri (Interpretadas, Coloreadas, etc.), este trabajo de investigación trata con redes de petri interpretadas principalmente debido a características tales como sincronización, lugares temporizados, aparte de su capacidad para procesamiento de datos. Esta investigación comienza con el proceso para diseñar y construir el modelo y diagnosticador para detectar fallos definitivos, posteriormente, la dinámica temporal fue adicionada para detectar fallos intermitentes. Dos procesos industriales, concretamente un HVAC (Calefacción, Ventilación y Aire Acondicionado) y un Proceso de Envasado de Líquidos fueron usados como banco de pruebas para implementar la herramienta de diagnóstico de fallos (FD) creada. Finalmente, su capacidad de diagnóstico fue ampliada en orden a detectar fallos en sistemas híbridos. Finalmente, un pequeño helicóptero no tripulado fue elegido como ejemplo de sistema donde la seguridad es un desafío, y las técnicas de detección de fallos desarrolladas en esta tesis llevan a ser una herramienta valorada, desde que los accidentes de las aeronaves no tripuladas (UAVs) envuelven un alto costo económico y son la principal razón para introducir restricciones de volar sobre áreas pobladas. Así, este trabajo introduce un proceso sistemático para construir un Diagnosticador de Fallos del sistema mencionado basado en RdR Esta novedosa herramienta es capaz de detectar fallos definitivos e intermitentes. El trabajo realizado es discutido desde un punto de vista teórico y práctico. El procedimiento comienza con la división del sistema en subsistemas para seguido integrar en una RdP diagnosticadora global que es capaz de monitorear el sistema completo y mostrar las variables críticas al operador en orden a determinar la salud del UAV, para de esta manera prevenir accidentes. Un Sistema de Adquisición de Datos (DAQ) ha sido también diseñado para recoger datos durante los vuelos y alimentar la RdP diagnosticadora. Vuelos reales realizados bajo condiciones normales y de fallo han sido requeridos para llevar a cabo la configuración del diagnosticador y verificar su comportamiento. Vale la pena señalar que un alto riesgo fue asumido en la generación de fallos durante los vuelos, a pesar de eso esto permitió recoger datos básicos para desarrollar el diagnóstico de fallos, técnicas de aislamiento, protocolos de mantenimiento, modelos de comportamiento, etc. Finalmente, un resumen de la validación de resultados obtenidos durante las pruebas de vuelo es también incluido. Un extensivo uso de esta herramienta mejorará los protocolos de mantenimiento para UAVs (especialmente helicópteros) y permite establecer recomendaciones en regulaciones. El uso del diagnosticador usando redes de petri es considerado un novedoso enfoque. ABSTRACT Safety and reliability of industrial processes are the main concern of the engineers in charge of industrial plants. Thus, from an economic point of view, the main goal is to reduce the maintenance downtime cost and the losses caused by failures. Moreover, the safety of the operators, which affects to social and economic aspects, is the most relevant factor to consider in any system. Due to this, fault diagnosis has become a relevant focus of interest for worldwide researchers and engineers in the industry. The main works focused on failure detection are based on models of the processes. There are different techniques for modelling industrial processes such as state machines, decision trees and Petri Nets (PN). Thus, this Thesis is focused on modelling processes by using Interpreted Petri Nets. Petri Nets is a tool used in the graphic and mathematical modelling with ability to describe information of the systems in a concurrent, parallel, asynchronous, distributed and not deterministic or stochastic manner. PNs are also useful graphical visual communication tools as flow chart or block diagram. Additionally, the marks of the PN simulate the dynamics and concurrence of the systems. Finally, they are able to define specific state equations, algebraic equations and other models that represent the common behaviour of systems. Among the different types of PN (Interpreted, Coloured, etc.), this research work deals with the interpreted Petri Nets mainly due to features such as synchronization capabilities, timed places, apart from their capability for processing data. This Research begins with the process for designing and building the model and diagnoser to detect permanent faults, subsequently, the temporal dynamic was added for detecting intermittent faults. Two industrial processes, namely HVAC (Heating, Ventilation and Air Condition) and Liquids Packaging Process were used as testbed for implementing the Fault Diagnosis (FD) tool created. Finally, its diagnostic capability was enhanced in order to detect faults in hybrid systems. Finally, a small unmanned helicopter was chosen as example of system where safety is a challenge and fault detection techniques developed in this Thesis turn out to be a valuable tool since UAVs accidents involve high economic cost and are the main reason for setting restrictions to fly over populated areas. Thus, this work introduces a systematic process for building a Fault Diagnoser of the mentioned system based on Petri Nets. This novel tool is able to detect both intermittent and permanent faults. The work carried out is discussed from theoretical and practical point of view. The procedure begins with a division of the system into subsystems for further integration into a global PN diagnoser that is able to monitor the whole system and show critical variables to the operator in order to determine the UAV health, preventing accidents in this manner. A Data Acquisition System (DAQ) has been also designed for collecting data during the flights and feed PN Diagnoser. Real flights carried out under nominal and failure conditions have been required to perform the diagnoser setup and verify its performance. It is worth noting that a high risk was assumed in the generation of faults during the flights, nevertheless this allowed collecting basic data so as to develop fault diagnosis, isolations techniques, maintenance protocols, behaviour models, etc. Finally, a summary of the validation results obtained during real flight tests is also included. An extensive use of this tool will improve preventive maintenance protocols for UAVs (especially helicopters) and allow establishing recommendations in regulations. The use of the diagnoser by using Petri Nets is considered as novel approach.
Resumo:
La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.
Resumo:
El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.
Resumo:
Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.
Resumo:
La Mezquita-Catedral de Córdoba es un edificio vivo. Un edificio que ha sido transformado sucesivamente por hombres de razas, culturas y religiones distintas durante sus más de 1.200 años de vida y que, a pesar de ello, no ha dejado de estar en uso ni uno solo de esos días de esa larga vida. De esta forma, el edificio se muestra ante el visitante como un complejo objeto arquitectónico, resultado de una continua transformación. La capacidad de la transformación de los edificios es algo inherente a su propia condición arquitectónica, no es un hecho exclusivo de la Mezquita-Catedral. Sin embargo, en este edificio esa transformación se produce con una gran intensidad y sin pérdida de su autenticidad. Tradicionalmente, los edificios se han adaptado a los nuevos requerimientos de cada época en un proceso que ha buscado en el propio edificio las leyes o principios que habían de regir la intervención. De esta forma, tanto las sucesivas ampliaciones de la Mezquita de Abd al-Rahman I como las siguientes intervenciones cristianas debieron asumir lo preexistente como material de trabajo. Así, los arquitectos del califa al-Hakam II dialogaron con sus antecesores complejizando el espacio que recibieron, así como los Hernán Ruiz consiguieron un nuevo organismo resultante de la introducción de su arquitectura luminosa en la trama hispanomusulmana. El siglo XIX confirmó el deseo por descubrir las huellas de un pasado esplendoroso que la intervención barroca había silenciado bajo un tratamiento homogéneo del espacio. La recuperación de esas huellas supuso, hace exactamente dos siglos, el inicio de la última gran etapa en la transformación del edificio, la de la restauración. La fábrica es considerada como objeto a conservar y los esfuerzos desde ese momento se centraron en la recuperación de la arquitectura omeya latente. De este modo, la práctica de la restauración como disciplina se encontró absolutamente influenciada por la Arqueología como única fuente de conocimiento. Las intervenciones buscaban lo original como modo de recuperar espacial y formalmente aquel pasado, concentrándose en los lugares del edificio considerados como esenciales. La declaración del edificio como monumento nacional en 1882 propició que el Estado se hiciera cargo de su mantenimiento y conservación, sustituyendo en esa tarea a los Obispos y Cabildos del siglo XIX, que tuvieron un entendimiento muy avanzado para su época. La llegada del arquitecto Velázquez Bosco en las últimas décadas del siglo XIX supuso un cambio trascendental en la historia del edificio, puesto que recibió un edificio con importantes deterioros y consiguió poner las bases del edificio que hoy contemplamos. El empeño por la recuperación material y espacial devolvió a la Mezquita-Catedral buena parte de su imagen original, reproduciendo con exactitud los modelos hallados en las exploraciones arqueológicas. La llegada de Antonio Flórez tras la muerte de Velázquez Bosco supuso la traslación al edificio del debate disciplinar que se desarrolló en las dos primeras décadas del siglo XX. Flórez procuró un nuevo entendimiento de la intervención, considerando la conservación como actuación prioritaria. En 1926 el Estado reformó la manera en que se atendía al patrimonio con la creación de un sistema de zonas y unos arquitectos a cargo de ellas. La existencia de un nuevo marco legislativo apuntaló esa nueva visión conservativa, avalada por la Carta de Atenas de 1931. Este modelo restauración científica huía de la intervención en estilo y valoraba la necesidad de intervenir de la manera más escueta posible y con un lenguaje diferenciado, basándose en los datos que ofrecía la Arqueología. Por tanto, se continuaba con la valoración del edificio como documento histórico, buscando en este caso una imagen diferenciada de la intervención frente a la actitud mimética de Velázquez. Resulta destacable la manera en la que el historiador Manuel Gómez-Moreno influyó en varias generaciones de arquitectos, arqueólogos e historiadores, tanto en el entendimiento científico de la restauración como en la propia estructura administrativa. La labor desarrollada en el edificio por José Mª Rodríguez Cano primero y Félix Hernández a continuación estuvo influida de manera teórica por el método de Gómez-Moreno, aunque en muchos aspectos su labor no representó una gran diferencia con lo hecho por Velázquez Bosco. La búsqueda de lo original volvió a ser recurrente, pero la carga económica del mantenimiento de un edificio tan extenso conllevó la no realización de muchos de los proyectos más ambiciosos. Esta obsesiva búsqueda de la imagen original del edificio tuvo su última y anacrónica etapa con la intervención de la Dirección General de Arquitectura en los 70. Sin embargo, el agotamiento del modelo científico ya había propiciado un nuevo escenario a nivel europeo, que cristalizó en la Carta de Venecia de 1964 y en una nueva definición del objeto a preservar, más allá del valor como documento histórico. Esta nueva posición teórica tuvo su traslación al modelo restaurador español en el último cuarto de siglo XX, coincidiendo con la Transición. El arquitecto Dionisio Hernández Gil defendió una interpretación distinta a la de los arqueólogos y de los historiadores, que había prevalecido durante todo el siglo. En opinión de Hernández Gil, los problemas de intervención debían enfocarse fundamentalmente como problemas de Arquitectura, abandonando la idea de que solamente podían ser resueltos por especialistas. Esta convicción teórica fue defendida desde la nueva Administración y deparó la utilización de unos criterios de intervención particularizados, provenientes del análisis multifocal de cada situación y no sólo desde el valor de los edificios como documentos históricos. Y este cambio tuvo su traslación a la Mezquita-Catedral con la práctica de Gabriel Ruiz Cabrero y Gabriel Rebollo. En consecuencia con esa nueva perspectiva, aceptaron el edificio que recibieron, sustituyendo la búsqueda de aquella página original por la aceptación de cada una de las páginas de su historia y el respeto a las técnicas constructivas del pasado. La búsqueda de soluciones específicas desde el propio objeto arquitectónico significó la renovada atención a la potente estructura formal-constructiva como origen de toda reflexión. Considerar la Mezquita-Catedral en primer lugar como Arquitectura implicaba la atención a todo tipo de factores además de los históricos, como medio para preservar su autenticidad. Esta tesis pretende demostrar que la práctica de la restauración realizada en la Mezquita-Catedral a lo largo del siglo XX ha evolucionado desde la búsqueda de lo original hasta la búsqueda de lo auténtico, como reflejo de una visión basada en lo arqueológico frente a una renovada visión arquitectónica más completa, que incluye a la anterior. La consideración de la intervención en este edificio como otra página más de su historia y no como la última, significa la reedición de un mecanismo recurrente en la vida del edificio y un nuevo impulso en ese proceso de continua transformación. ABSTRACT The Mosque-Cathedral of Cordoba is a living building. A building transformed by men of different races, cultures and religions during more than 1.200 years old and that, nevertheless, it has continued to be in use all days in that long life. Thus, the building shows to the visitor as a complex architectural object, the result of continuous transformation. This transformation capacity of the buildings is inherent in their own architectural condition, it’s not an exclusive fact of the Mosque-Cathedral. However, in this building that transformation happens with a great intensity, without losing their authenticity. Traditionally, buildings have been adapted to the new requirements of times in a process that looked for laws or principles in order to guide the intervention. Thus, both the successive enlargements of the Mosque of Abd al-Rahman and Christian interventions must assume the preexistence as a working material. So, the architects of the caliph al-Hakam II spoke to their predecessors, complexing the receiving space, as well as Hernan Ruiz got a new organism as result the introduction of his luminous architecture into hispanic-muslim weft. The nineteenth century confirmed the desire to discover the traces of a glorious past that Baroque intervention had silenced, under a uniform space treatment. Exactly two centuries ago, the recovery of these traces meant the start of the last major phase in the transformation of the building: the restoration. The building was considered subject to conserve and since then, efforts focused on the recovery of latent Umayyad architecture. Thus, the practice of restoration as a discipline was absolutely influenced by Archaeology as the only source of knowledge. Interventions were seeking the original as the way to recover that past in a space and formal way, concentrating on essential sites of the building. The statement as a national monument in 1882 prompted the State take charge of its maintenance and preservation, replacing to the nineteenth century Bishops and Cabildos, which had a very advanced understanding for that time. The arrival of the architect Velazquez Bosco in the last decades of the nineteenth century involved a momentous change in the history of the building, since he received a building with significant damage and he achieved the foundations of the building that we can see today. Efforts to a material and space recover returned the Mosque-Cathedral to its original image, accurately reproducing the models found in archaeological explorations. The arrival of Antonio Florez after Velazquez’s death involved the translation of discipline debate, which was developed in the first two decades of the twentieth century. Florez tried a new understanding of the intervention, considering conservation as a priority action. In 1926, the State reformed the way in which heritage was attended, creating a zones system with a few architects in charge of them. The existence of a new legislative framework, underpinned this new conservative vision, supported by the Athens Charter of 1931. This scientific restoration model fleeing from intervention in style and it appreciated the need to intervene in the most concise way, with a distinct language based on the data offered by Archaeology. Therefore, it continued with the appraisement of the building as a historical document, seeking in this case a differentiated image of intervention, against Velazquez mimetic attitude. It is remarkable the way in which the historian Manuel Gomez-Moreno influenced several generations of architects, archaeologists and historians, both in the scientific understanding of the restoration and the administrative structure. The work of Jose Maria Rodriguez Cano first and then Felix Hernandez was theoretically influenced by the Gomez-Moreno’s method, although in many respects their work did not represent a great difference to Velazquez Bosco. The search of the original returned to recur, but the economic charge of maintaining such a large building led to the non-realization of many of the most ambitious projects. This obsessive search for the original image of the building had its last and anachronistic stage with the intervention of the Department of Architecture at 70’s. However, the exhaustion of the scientific model had already led to a new scenario at European level, which crystallized in the Venice Charter of 1964 and a new definition of the object to be preserved beyond the value as a historical document. This new theoretical position had its translation to Spanish restaurateur model in the last quarter of the twentieth century, coinciding with the Transition. The architect Dionisio Hernandez Gil defended a different interpretation from archaeologists and historians, that had prevailed throughout the century. According to Hernandez Gil, the problems of intervention should focus primarily as architectural issues, abandoning the idea that they could only be determined by specialist. This theoretical conviction was defended from the new administration and led to the use of particularized criteria, from a multifocal analysis of each situation. And this change had its translation to the Mosque with the practice of Gabriel Ruiz Cabrero and Gabriel Rebollo. Consistent with this new perspective, they accepted the receiving building, replacing the search on original page for acceptance of all historical pages and respecting the constructive techniques of the past. The search for specific solutions from the architectural object meant the renewed attention to the powerful formal-constructive structure as the origin of all thought. Consider the Mosque-Cathedral as Architecture, involved the attention to all kinds of factors in addition to the historical, as a means to preserve its authenticity. This thesis aims to demonstrate that the practice of restoration in the Mosque-Cathedral throughout the twentieth century has evolved from the search of the original to the search for the authentic, reflecting a vision based on the archaeological against a renewed more complete architectural vision, including the above. Consideration of intervention in this building as another page in its history and not the last one, means the reissue of an own mechanism and a new impetus in that continuous transformation process.
Resumo:
La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.
Resumo:
Esta tesis trata sobre la construcción modular ligera, dentro del contexto de la eficiencia energética y de cara a los conceptos de nZEB (near Zero Energy Building) y NZEB (Net Zero Energy Building) que se manejan en el ámbito europeo y específicamente dentro del marco regulador de la Directiva 2010/31 UE. En el contexto de la Unión Europea, el sector de la edificación representa el 40% del total del consumo energético del continente. Asumiendo la necesidad de reducir este consumo se han planteado, desde los organismos de dirección europeos, unos objetivos (objetivos 20-20-20) para hacer más eficiente el parque edificatorio. Estos objetivos, que son vinculantes en términos de legislación, comprometen a todos los estados miembros a conseguir la meta de reducción de consumo y emisiones de GEI (Gases de Efecto Invernadero) antes del año 2020. Estos conceptos de construcción modular ligera (CML) y eficiencia energética no suelen estar asociados por el hecho de que este tipo de construcción no suele estar destinada a un uso intensivo y no cuenta con unos cerramientos con niveles de aislamiento de acuerdo a las normativas locales o códigos de edificación de cada país. El objetivo de nZEB o NZEB, e incluso Energy Plus, según sea el caso, necesariamente (y así queda establecido en las normativas), dependerá no sólo de la mejora de los niveles de aislamiento de los edificios, sino también de la implementación de sistemas de generación renovables, independientemente del tipo de sistema constructivo con el que se trabaje e incluso de la tipología edificatoria. Si bien es cierto que los niveles de industrialización de la sociedad tecnológica actual han alcanzado varias de las fases del proceso constructivo - sobre todo en cuanto a elementos compositivos de los edificios- también lo es el hecho de que las cotas de desarrollo conseguidas en el ámbito de la construcción no llegan al nivel de evolución que se puede apreciar en otros campos de las ingenierías como la aeronáutica o la industria del automóvil. Aunque desde finales del siglo pasado existen modelos y proyectos testimoniales de construcción industrializada ligera (CIL) e incluso ya a principios del siglo XX, ejemplos de construcción modular ligera (CML), como la Casa Voisin, la industrialización de la construcción de edificios no ha sido una constante progresiva con un nivel de comercialización equiparable al de la construcción masiva y pesada. Los términos construcción industrializada, construcción prefabricada, construcción modular y construcción ligera, no siempre hacen referencia a lo mismo y no siempre son sinónimos entre sí. Un edificio puede ser prefabricado y no ser modular ni ligero y tal es el caso, por poner un ejemplo, de la construcción con paneles de hormigón prefabricado. Lo que sí es una constante es que en el caso de la construcción modular ligera, la prefabricación y la industrialización, casi siempre vienen implícitas en muchos ejemplos históricos y actuales. Con relación al concepto de eficiencia energética (nZEB o incluso NZEB), el mismo no suele estar ligado a la construcción modular ligera y/o ligera industrializada; más bien se le ve unido a la idea de cerramientos masivos con gran inercia térmica propios de estándares de diseño como el Passivhaus; y aunque comúnmente a la construcción ligera se le asocian otros conceptos que le restan valor (corta vida útil; función y formas limitadas, fuera de todo orden estético; limitación en los niveles de confort, etc.), los avances que se van alcanzando en materia de tecnologías para el aprovechamiento de la energía y sistemas de generación renovables, pueden conseguir revertir estas ideas y unificar el criterio de eficiencia + construcción modular ligera. Prototipos y proyectos académicos– como el concurso Solar Decathlon que se celebra desde el año 2002 promovido por el DOE (Departamento de Energía de los Estados Unidos), y que cuenta con ediciones europeas como las de los años 2010 y 2012, replantean la idea de la construcción industrializada, modular y ligera dentro del contexto de la eficiencia energética, con prototipos de viviendas de ± 60m2, propuestos por las universidades concursantes, y cuyo objetivo es alcanzar y/o desarrollar el concepto de NZEB (Net Zero Energy Building) o edificio de energía cero. Esta opción constructiva no sólo representa durabilidad, seguridad y estética, sino también, rapidez en la fabricación y montaje, además de altas prestaciones energéticas como se ha podido demostrar en las sucesivas ediciones del Solar Decathlon. Este tipo de iniciativas de desarrollo de tecnologías constructivas, no sólo apuntan a la eficiencia energética sino al concepto global de energía neta, Energía plus o cero emisiones de CO2. El nivel de emisiones por la fabricación y puesta en obra de los materiales de construcción depende, en muchos casos, no solo de la propia naturaleza del material, sino también de la cantidad de recursos utilizados para producir una unidad de medida determinada (kg, m3, m2, ml, etc). En este sentido podría utilizarse, en muchos casos, el argumento válido de que a menos peso, y a menos tamaño, menos emisiones globales de gases de efecto invernadero y menos contaminación. Para el trabajo de investigación de esta tesis se han tomado como referencias válidas para estudio, prototipos tanto de CML (Modular 3D) como de CIL (panelizado y elementos 2D), dado que para los fines de análisis de las prestaciones energéticas de los materiales de cerramiento, ambos sistemas son equiparables. Para poder llegar a la conclusión fundamental de este trabajo de tesis doctoral - que consiste en demostrar la viabilidad tecnológica/ industrial que supone la combinación de la eficiencia energética y la construcción modular ligera - se parte del estudio del estado de la técnica ( desde la selección de los materiales y los posibles procesos de industrialización en fábrica, hasta su puesta en obra, funcionamiento y uso, bajo los conceptos de consumo cero, cero emisiones de carbono y plus energético). Además -y con un estado de la técnica que identifica la situación actual- se llevan a cabo pruebas y ensayos con un prototipo a escala natural y células de ensayo, para comprobar el comportamiento de los elementos compositivos de los mismos, frente a unas condicionantes climáticas determinadas. Este tipo de resultados se contrastan con los obtenidos mediante simulaciones informáticas basadas en los mismos parámetros y realizadas en su mayoría mediante métodos simplificados de cálculos, validados por los organismos competentes en materia de eficiencia energética en la edificación en España y de acuerdo a la normativa vigente. ABSTRACT This thesis discusses lightweight modular construction within the context of energy efficiency in nZEB (near Zero Energy Building) and NZEB (Net Zero Energy Building) both used in Europe and, specifically, within the limits of the regulatory framework of the EU Directive 2010/31. In the European Union the building sector represents 40% of the total energy consumption of the continent. Due to the need to reduce this consumption, European decision-making institutions have proposed aims (20-20-20 aims) to render building equipment more efficient. These aims are bound by law and oblige all member States to endeavour to reduce consumption and GEI emissions before the year 2020. Lightweight modular construction concepts and energy efficiency are not generally associated because this type of building is not normally meant for intensive use and does not have closures with insulation levels which fit the local regulations or building codes of each country. The objective of nZEB or NZEB and even Energy Plus, depending on each case, will necessarily be associated (as established in the guidelines) not only with the improvement of insulation levels in buildings, but also with the implementation of renewable systems of generation, independent of the type of building system used and of the building typology. Although it is true that the levels of industrialisation in the technological society today have reached several of the building process phases - particularly in the composite elements of buildings - it is also true that the quotas of development achieved in the area of construction have not reached the evolutionary levelfound in other fields of engineering, such as aeronautics or the automobile industry. Although there have been models and testimonial projects of lightweight industrialised building since the end of last century, even going back as far as the beginning of the XX century with examples of lightweight modular construction such as the Voisin House, industrialisation in the building industry has not been constant nor is its comercialisation comparable to massive and heavy construction. The terms industrialised building, prefabricated building, modular building and lightweight building, do not always refer to the same thing and they are not always synonymous. A building can be prefabricated yet not be modular or lightweight. To give an example, this is the case of building with prefabricated concrete panels. What is constant is that, in the case of lightweight modular construction, prefabrication and industrialisation are almost always implicit in many historical and contemporary examples. Energy efficiency (nZEB or even NZEB) is not normally linked to lightweight modular construction and/or industrialised lightweight; rather, it is united to the idea of massive closureswith high thermal inertia typical of design standards such as the Passive House; and although other concepts that subtract value from it are generally associated with lightweight building (short useful life, limited forms and function, inappropriate toany aesthetic pattern; limitation in comfort levels, etc.), the advances being achieved in technology for benefitting from energy and renewable systems of generation may well reverse these ideas and unify the criteria of efficiency + lightweight modular construction. Academic prototypes and projects - such as the Solar Decathlon competition organised by the US Department of Energy and celebrated since 2002, with its corresponding European events such as those held in 2010 and 2012, place a different slant on the idea of industrialised, modular and lightweight building within the context of energy efficiency, with prototypes of homes measuring approximately 60m2, proposed by university competitors, whose aim is to reach and/or develop the NZEB concept, or the zero energy building. This building option does not only signify durability, security and aesthetics, but also fast manufacture and assembly. It also has high energy benefits, as has been demonstrated in successive events of the Solar Decathlon. This type of initiative for the development of building technologies, does not only aim at energy efficiency, but also at the global concept of net energy, Energy Plus and zero CO2 emissions. The level of emissions in the manufacture and introduction of building materials in many cases depends not only on the inherent nature of the material, but also on the quantity of resources used to produce a specific unit of measurement (kg, m3, m2, ml, etc.). Thus in many cases itcould be validly arguedthat with less weight and smaller size, there will be fewer global emissions of greenhouse effect gases and less contamination. For the research carried out in this thesis prototypes such as the CML (3D Module) and CIL (panelled and elements) have been used as valid study references, becauseboth systems are comparablefor the purpose of analysing the energy benefits of closure materials. So as to reach a basic conclusion in this doctoral thesis - that sets out to demonstrate the technological/industrial viability of the combination of energy efficiency and lightweight modular construction - the departure point is the study of the state of the technique (from the selection of materials and the possible processes of industrialisation in manufacture, to their use on site, functioning and use, respecting the concepts of zero consumption, zero emissions of carbon and Energy Plus). Moreover, with the state of the technique identifying the current situation, tests and practices have been carried out with a natural scale prototype and test cells so as to verify the behaviour of the composite elements of these in certain climatic conditions. These types of result are contrasted with those obtained through computer simulation based on the same parameters and done, principally, using simplified methods of calculation, validated by institutions competent in energy efficiency in Spanish building and in line with the rules in force.
Resumo:
La tesis plantea el estudio de la figura de Fernando García Mercadal (1896- 1985) y su obra, en el contexto del proyecto moderno perteneciente a la racionalidad teórica colectiva de la segunda generación del Movimiento Moderno en Europa, y explora la vida y circunstancias de un arquitecto que aunque nacido en el XIX, trajo la modernidad a España. El Movimiento Moderno en España, se articula en las décadas de los años 20 y 30 a través del GATEPAC y un grupo de arquitectos racionalistas en Madrid que Carlos Flores denomina Generación del 1925. Fernando García Mercadal, primero de su promoción en 1921 y pensionado en Roma, pertenece a ambos y pronto se convierte junto con Josep Lluis Sert, en una de las figuras más relevantes del panorama moderno español. Único miembro fundador del GATEPAC que había nacido en el siglo XIX, publica habitualmente en la revista AC (1931-1937), y en la revista Arquitectura desde 1920. Organiza en la Residencia de Estudiantes, entre 1928 y 1932, un famoso ciclo de Conferencias que imparten Le Corbusier, Mendelsohn, Van Doesburg, Gropius y Giedion. También asiste a la reunión constituyente de los CIAM en La Sarraz en 1928, al CIAM II en Frankfurt en 1929 y al CIAM III en Bruselas en 1930. Fue profesor en la Escuela de Arquitectura de Madrid y Arquitecto Jefe de la Oficina de Urbanismo y de Parques y Jardines del Ayuntamiento de Madrid, cargo al que accede por oposición en 1932. Tras la guerra fue depurado e inhabilitado profesionalmente, hasta que en 1946 comienza a trabajar en el Departamento de Arquitectura del I.N.P. donde continúa hasta los años 70. En 1979 es nombrado Académico de número de la Real Academia de Bellas Artes de San Fernando y muere en Madrid en 1985. Estos son los datos conocidos y aunque en la tesis se aportan nuevos datos inéditos, es en las premisas para su interpretación donde este trabajo de investigación pone el acento. En la historiografía de nuestra arquitectura moderna, pervive una tendencia a suponer una desconexión entre la vanguardia arquitectónica en los años 20 y 30 y el movimiento moderno internacional. El manto de silencio que cayó sobre la generación anterior a la guerra, una vez terminada esta, contribuye a reforzar la idea, cuyo origen y causas exceden el ámbito de trabajo, aunque se tratarán tangencialmente por ser ineludible hacerlo. La tesis pone en cuestión ese planteamiento desde el convencimiento fundamentado en los datos y en la consulta de fuentes originales, que la arquitectura española anterior a la guerra, aun con las circunstancias particulares del país, estuvo en sintonía con la europea, siendo esta la hipótesis de partida de la investigación. Las aportaciones más significativas que, a mi entender, presenta la tesis doctoral, y tienen mayor originalidad, son las siguientes; 1.Puesta en valor de la arquitectura de FGM, antes y después de la guerra, abandonando la idea de su supuesta renuncia a las ideas modernas a partir de los 30; 2. Puesta en valor, con aportación de datos concretos, de la Intensa relación mantenida por FGM y otros arquitectos españoles del Movimiento Moderno con los arquitectos de igual tendencia en el resto de Europa, a través de contactos recíprocos y continuos; 3. Estudio de la obra de FGM en el marco del Movimiento Moderno como una nueva arquitectura basada no tanto en la epidermis, como en una forma de hacer y encarar los problemas donde el proceso es tan importante como el resultado; con el Urbanismo como una nueva ciencia, y con el desarrollo de nuevos programas funcionales acordes a las necesidades de la sociedad contemporánea como el Rincón de Goya y el Hospital de Zaragoza. Se manejan tres métodos de trabajo. Los dos primeros aportan un nuevo enfoque al análisis crítico de FGM y su obra, situándole en el contexto internacional, además del español. El tercero, de carácter instrumental, permite el manejo y sistematización de la documentación. El primer método, consiste en aplicar el criterio generacional de Pevsner o Giedion entre otros, al Movimiento Moderno en España, situando a Fernando García Mercadal como arquitecto de la segunda generación, para hacer un análisis crítico comparativo de su trayectoria con otros arquitectos europeos de la misma, que permita establecer semejanzas y diferencias. El segundo método, complementario al anterior, consiste en estudiar las relaciones internacionales de FGM con las figuras más próximas a él y sus posibles influencias. Por último, y en relación con la documentación de obras y proyectos, se manejan a su vez dos criterios. Para la obra completa, y debido a la inexistencia de originales del Legado García Mercadal, se utiliza con carácter general el material ya publicado, disperso en libros y revistas. En el caso de las cinco obras seleccionadas, se completa con búsqueda en archivos, toma de datos in situ actualizados cuando es posible, y una recopilación de su repercusión en prensa escrita de su momento. ABSTRACT This research study focuses on Fernando Garcia Mercadal (1896-1985) and his work in the context of the Modern project as part of the collective theoretical rationality of the second generation of European Modern architecture. It explores the life and circumstances of the architect, who even though born in 19th century introduced Modern architecture in Spain. Modern architecture (Modern Movement) in Spain covered two decades between 20's and 30's through GATEPAC and a group of rationalists in Madrid that Carlos Flores named “generation of '25”. Fernando Garcia Mercadal, top of his class in 1921 and granted with the scholarship in Rome, belonged to both groups and early in his career he became, along with Josep Lluis Sert, one of the most relevant figures of Modern Architecture in Spain. He was the only member of GATEPAC who was born in 19th century. He frequently published on the magazine “AC” (1931-1937) and on “Arquitecture” magazine since 1920. He organized a series of famous lectures at “Residencia de Estudiantes” (Madrid) between 1928 and 1932 in which Le Corbusier, Mendelsohn, Van Doesburg, Gropius or Giedion took part. He was a member of the constituent meeting of CIAM in La Sarraz in 1928, CIAM II in Frankfurt in 1929 and CIAM III in Brussels in 1930. Mercadal was a teacher at Escuela de Arquitectura de Madrid and the Chief of the Urban Planning, Parks and Gardens Office of the Council of Madrid. He earned his position by public examination in 1932. After the civil war he was disqualified professionally until 1946, when he started working at the Architecture Department at INP until 70's. In 1979 he was elected as an academic member of “Real Academia de Bellas Artes de San Fernando” and later died in 1985. These are the well-known facts and even though this research study provides unpublished facts, it focuses on the premises to interpret them. Throughout the historiographical discourse of Spanish Modern architecture there is a tendency to assume a disconnection between the Avant-garde architecture movements in 20's and 30's and International Modern architecture (Modern Movement). The generation preceding the war remained silent in regard to this issue and once the war was over, they contributed to support the disconnection. The origin and cause exceed the frame of this work, even though they are incidentally commented due to its importance. This research study questions the approach explained above, based on the facts and the original sources. Its first hypothesis states that Spanish architecture before the civil war was, under its own circumstances, in tune with European architecture. The most important and original contributions of this research study are the following under my point of view: 1. To highlight the architecture of FGM, before and after the war, leaving behind his reputed withdrawal of Modernity after 30's; 2. To highlight the intense relationship between FGM and other Modern Spanish architects and other European architects sharing the same ideas, providing detailed facts; 3. Study of FGM's work in the context of Modern architecture as a new architecture based on its know-how and the way problems are faced. The process is as important as the result, not so much based on the dermis; with urban planning as the new science and with the development of the new functional programs based on the needs of contemporary society as in Rincón de Goya or Hospital de Zaragoza. Three work methods are used. The first two add a new vision of the critical analysis related to FGM and his work, positioning him in the international context in addition to Spain. The third is used as an instrument to manage and systematize the documentation. The first method applies the generational criteria of Pevsner or Giedion (among others) to Modern architecture in Spain, positioning Fernando Garcia Mercadal as a second generation architect. A critical-comparative analysis of his career and contemporary European architects is made to establish similarities and differences. The second method is complementary to the previous one and studies the international relationships of FGM with other recognised architects that were close to him and their possible influences. At last, in relation to his works and projects, two methods are used. For the complete works, due to the lack of originals, published material found on magazines and books is used as the source. In the case of the five selected buildings, it is complemented with archive search, onsite data collection when possible and the impact on the press at that moment.