897 resultados para Barreras
Resumo:
Al inicio de este siglo XXI, las ciudades españolas tienen ante sí un reto que, en términos cuantitativos, supera con mucho al referido a la rehabilitación de centros históricos y primeros ensanches. Se trata de la rehabilitación de un tejido específico de nuestras ciudades, los barrios de bloque abierto construidos entre 1940-1980, en los que se están produciendo graves procesos de degradación urbana y que pueden caracterizarse como áreas urbanas vulnerables. Este artículo analiza tanto las estrategias emprendidas desde las diversas administraciones públicas en materia de rehabilitación urbana como las experiencias iniciadas y tiene por objetivos, primero, detectar cuáles son las principales barreras de todo tipo (legales, sociales, económicas, culturales) que impiden que este tipo de prácticas dejen atrás el carácter experimental y minoritario que aun hoy las caracteriza, y, segundo, avanzar propuestas de acción para conseguir la rehabilitación urbana integral y sistemática de estos barrios.
Resumo:
El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.
Resumo:
El presente trabajo de investigación se ocupa del estudio de las vibraciones verticales inducidas por vórtices (VIV) en aquellos puentes que, por sus características geométricas y propiedades dinámicas, muestran cierta sensibilidad este tipo de fenómeno aeroelástico. El objeto principal es el análisis del mecanismo de interacción viento-estructura sobre secciones no fuseladas de geometría simple, con objeto de realizar una adecuada caracterización del problema y poder abordar posteriormente el análisis de otras secciones de geometría más compleja, representativas de los principales elementos estructurales de los puentes, como arcos, tableros, torres y pilas. Este aspecto es fundamental durante la fase de diseño del puente, donde deberán tenerse en cuenta también una serie de detalles que pueden influir significativamente su sensibilidad ante problemas aerodinámicos, como la morfología y dimensiones principales de la sección transversal del tablero, la disposición de barreras de seguridad y barreras cortaviento, o las riostras que unen diferentes elementos estructurales. La configuración de dos elementos en tándem o la construcción de un puente en las inmediaciones de otro existente son otros aspectos a considerar respecto a la sensibilidad frente a efectos aeroelásticos. El estudio se ha llevado a cabo principalmente mediante la implementación de simulaciones numéricas que reproducen la interacción entre la corriente de aire y secciones representativas de modelos estructurales, a partir de un código CFD basado en el método de las partículas de vórtices (VPM), siguiendo por tanto un esquema Lagrangiano. Los resultados han sido validados con datos experimentales existentes, valores procedentes de ensayos en túnel de viento y registros reales a partir de diferentes casos de estudio: Alconétar (2006), Niterói (1980), Trans- Tokyo Bay (1995) y Volgogrado (2010). Finalmente, se propone un modelo semi-empírico para la estimación del rango de velocidades críticas y amplitudes de oscilación basado en la utilización de las derivadas de flameo de Scanlan, y la densidad espectral de las fuerzas aerodinámicas en el dominio de la frecuencia. The present research work concerns the study of vertical vortex-induced vibrations (VIV) in bridges which show certain sensitivity to this type of aeroelastic phenomenon. It focuses on the analysis of the wind-structure interaction mechanism on bluff sections, with the objective of making a good characterisation of the problem and subsequently addressing the analysis of sections with a complex geometry, which are representative of the bridge structural elements, such as arches, decks, towers and piers. This issue is of relative importance during the bridge design phase, since minor details of the aforementioned elements can significantly influence its sensitivity to aerodynamic problems. The shape and main dimensions of the deck cross section, the addition of safety barriers and windshields, the presence of braces to enhance the structure mechanical properties, the utilisation of cross sections in tandem arrangement, or the erection of a new bridge in the vicinity of another existing one are some of the aspects to be considered regarding the sensitivity to the aeroelastic effects. The study has been carried out mainly through the implementation of numerical simulations that reproduces the interaction between the airflow and the representative cross section of a structural bridge model, by the use of a CFD code based on the vortex particle method (VPM), thus following a Lagrangian scheme. The results have been validated with existing experimental data, values from wind tunnel tests and full scale observations from the different case studies: Alconétar (2006), Niterói (1980), Trans-Tokyo Bay (1995) and Volgograd (2010). Finally, a new semi-empirical model is proposed for the estimation of the critical wind velocity ranges and oscillation amplitudes based on the use of the Scanlan’s flutter derivatives and the power spectral density of aerodynamic force time history in the frequency domain.
Resumo:
Vivimos una época en la que el mundo se transforma aceleradamente. La globalización está siguiendo un curso imparable, la población mundial así como la población urbana siguen creciendo, y en los países emergentes los ingresos promedios aumentan, resultando en un cambio también acelerado de las dietas y hábitos alimentarios. En conjunto esos factores están causando un aumento fundamental de la demanda de alimentos. Junto con la apertura de los mercados agrícolas, estos procesos han provocado un crecimiento del comercio internacional de alimentos durante la última década. Dado que muchos países de América Latina están dotados de abundancia de recursos naturales, estas tendencias han producido un crecimiento rápido de las exportaciones de bienes primarios desde América Latina al resto del mundo. En sólo 30 años la participación en el mercado agrícola de América Latina casi se ha duplicado, desde 10% en 1980 a 18% en 2010. Este aumento del comercio agrícola ha dado lugar a un debate sobre una serie de cuestiones cruciales relacionadas con los impactos del comercio en la seguridad alimentaria mundial, en el medio ambiente o en la reducción de la pobreza rural en países en desarrollo. Esta tesis aplica un marco integrado para analizar varios impactos relacionados con la transformación de los mercados agrícolas y los mercados rurales debidos a la globalización y, en particular, al progresivo aumento del comercio internacional. En concreto, la tesis aborda los siguientes temas: En primer lugar, la producción mundial de alimentos tendrá que aumentar considerablemente para poder satisfacer la demanda de una población mundial de 9000 millones personas en 2050, lo cual plantea grandes desafíos sobre los sistemas de la producción de alimentos. Alcanzar este logro, sin comprometer la integridad del medio ambiente en regiones exportadoras, es un reto aún mayor. En este contexto, la tesis analiza los efectos de la liberalización del comercio mundial, considerando distintas tecnologías de producción agraria, sobre unos indicadores de seguridad alimentaria en diferentes regiones del mundo y sobre distintos indicadores ambientales, teniendo en cuenta escalas diferentes en América Latina y el Caribe. La tesis utiliza el modelo “International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT)” – un modelo dinámico de equilibrio parcial del sector agrícola a escala global – para modelar la apertura de los mercados agrícolas así como diferentes escenarios de la producción hasta el año 2050. Los resultados del modelo están vinculados a modelos biofísicos para poder evaluar los cambios en la huella hídrica y la calidad del agua, así como para cuantificar los impactos del cambio en el uso del suelo sobre la biodiversidad y los stocks de carbono en 2050. Los resultados indican que la apertura de los mercados agrícolas es muy importante para mejorar la seguridad alimentaria a nivel mundial, sin embargo, produce también presiones ambientales indeseables en algunas regiones de América Latina. Contrastando dos escenarios que consideran distintas modos de producción, la expansión de la tierra agrícola frente a un escenario de la producción más intensiva, se demuestra que las mejoras de productividad son generalmente superiores a la expansión de las tierras agrícolas, desde un punto de vista económico e ambiental. En cambio, los escenarios de intensificación sostenible no sólo hacen posible una mayor producción de alimentos, sino que también generan menos impactos medioambientales que los otros escenarios futuros en todas sus dimensiones: biodiversidad, carbono, emisiones de nitratos y uso del agua. El análisis muestra que hay un “trade-off” entre el objetivo de alcanzar la sostenibilidad ambiental y el objetivo de la seguridad alimentaria, independiente del manejo agrícola en el futuro. En segundo lugar, a la luz de la reciente crisis de los precios de alimentos en los años 2007/08, la tesis analiza los impactos de la apertura de los mercados agrícolas en la transmisión de precios de los alimentos en seis países de América Latina: Argentina, Brasil, Chile, Colombia, México y el Perú. Para identificar las posibles relaciones de cointegración entre los índices de precios al consumidor de alimentos y los índices de precios de agrarios internacionales, sujetos a diferentes grados de apertura de mercados agrícolas en los seis países de América Latina, se utiliza un modelo simple de corrección de error (single equation error correction). Los resultados indican que la integración global de los mercados agrícolas ha dado lugar a diferentes tasas de transmisión de precios en los países investigados. Sobre todo en el corto plazo, las tasas de transmisión dependen del grado de apertura comercial, mientras que en el largo plazo las tasas de transmisión son elevadas, pero en gran medida independientes del régimen de comercio. Por lo tanto, durante un período de shocks de precios mundiales una mayor apertura del comercio trae consigo más inestabilidad de los precios domésticos a corto plazo y la resultante persistencia en el largo plazo. Sin embargo, estos resultados no verifican necesariamente la utilidad de las políticas comerciales, aplicadas frecuentemente por los gobiernos para amortiguar los shocks de precios. Primero, porque existe un riesgo considerable de volatilidad de los precios debido a cambios bruscos de la oferta nacional si se promueve la autosuficiencia en el país; y segundo, la política de proteccionismo asume el riesgo de excluir el país de participar en las cadenas de suministro de alto valor del sector agrícola, y por lo tanto esa política podría obstaculizar el desarrollo económico. Sin embargo, es indispensable establecer políticas efectivas para reducir la vulnerabilidad de los hogares a los aumentos repentinos de precios de alimentos, lo cual requiere una planificación gubernamental precisa con el presupuesto requerido disponible. En tercer lugar, la globalización afecta a la estructura de una economía y, por medios distintos, la distribución de los ingreso en un país. Perú sirve como ejemplo para investigar más profundamente las cuestiones relacionadas con los cambios en la distribución de los ingresos en zonas rurales. Perú, que es un país que está cada vez más integrado en los mercados mundiales, consiguió importantes descensos en la pobreza extrema en sus zonas rurales, pero a la vez adolece de alta incidencia de pobreza moderada y de desigualdad de los ingresos en zonas rural al menos durante el periodo comprendido entre 2004 y 2012. Esta parte de la tesis tiene como objetivo identificar las fuerzas impulsoras detrás de estas dinámicas en el Perú mediante el uso de un modelo de microsimulación basado en modelos de generación de ingresos aplicado a nivel los hogares rurales. Los resultados indican que la fuerza principal detrás de la reducción de la pobreza ha sido el crecimiento económico general de la economía, debido a las condiciones macroeconómicas favorables durante el periodo de estudio. Estos efectos de crecimiento beneficiaron a casi todos los sectores rurales, y dieron lugar a la disminución de la pobreza rural extrema, especialmente entre los agricultores de papas y de maíz. En parte, estos agricultores probablemente se beneficiaron de la apertura de los mercados agrícolas, que es lo que podría haber provocado un aumento de los precios al productor en tiempos de altos precios mundiales de los alimentos. Sin embargo, los resultados también sugieren que para una gran parte de la población más pobre existían barreras de entrada a la hora de poder participar en el empleo asalariado fuera de la agricultura o en la producción de cultivos de alto valor. Esto podría explicarse por la falta de acceso a unos activos importantes: por ejemplo, el nivel de educación de los pobres era apenas mejor en 2012 que en 2004; y también las dotaciones de tierra y de mano de obra, sobre todo de los productores pobres de maíz y patata, disminuyeron entre 2004 y 2012. Esto lleva a la conclusión de que aún hay margen para aplicar políticas para facilitar el acceso a estos activos, que podría contribuir a la erradicación de la pobreza rural. La tesis concluye que el comercio agrícola puede ser un importante medio para abastecer una población mundial creciente y más rica con una cantidad suficiente de calorías. Para evitar adversos efectos ambientales e impactos negativos para los consumidores y de los productores pobres, el enfoque debe centrarse en las mejoras de la productividad agrícola, teniendo en cuenta los límites ambientales y ser socialmente inclusivo. En este sentido, será indispensable seguir desarrollando soluciones tecnológicas que garanticen prácticas de producción agrícola minimizando el uso de recursos naturales. Además, para los pequeños pobres agricultores será fundamental eliminar las barreras de entrada a los mercados de exportación que podría tener efectos indirectos favorables a través de la adopción de nuevas tecnologías alcanzables a través de mercados internacionales. ABSTRACT The world is in a state of rapid transition. Ongoing globalization, population growth, rising living standards and increasing urbanization, accompanied by changing dietary patterns throughout the world, are increasing the demand for food. Together with more open trade regimes, this has triggered growing international agricultural trade during the last decade. For many Latin American countries, which are gifted with relative natural resource abundance, these trends have fueled rapid export growth of primary goods. In just 30 years, the Latin American agricultural market share has almost doubled from 10% in 1980 to 18% in 2010. These market developments have given rise to a debate around a number of crucial issues related to the role of agricultural trade for global food security, for the environment or for poverty reduction in developing countries. This thesis uses an integrated framework to analyze a broad array of possible impacts related to transforming agricultural and rural markets in light of globalization, and in particular of increasing trade activity. Specifically, the following issues are approached: First, global food production will have to rise substantially by the year 2050 to meet effective demand of a nine billion people world population which poses major challenges to food production systems. Doing so without compromising environmental integrity in exporting regions is an even greater challenge. In this context, the thesis explores the effects of future global trade liberalization on food security indicators in different world regions and on a variety of environmental indicators at different scales in Latin America and the Caribbean, in due consideration of different future agricultural production practices. The International Model for Policy Analysis of Agricultural Commodities and Trade (IMPACT) –a global dynamic partial equilibrium model of the agricultural sector developed by the International Food Policy Research Institute (IFPRI)– is applied to run different future production scenarios, and agricultural trade regimes out to 2050. Model results are linked to biophysical models, used to assess changes in water footprints and water quality, as well as impacts on biodiversity and carbon stocks from land use change by 2050. Results indicate that further trade liberalization is crucial for improving food security globally, but that it would also lead to more environmental pressures in some regions across Latin America. Contrasting land expansion versus more intensified agriculture shows that productivity improvements are generally superior to agricultural land expansion, from an economic and environmental point of view. Most promising for achieving food security and environmental goals, in equal measure, is the sustainable intensification scenario. However, the analysis shows that there are trade-offs between environmental and food security goals for all agricultural development paths. Second, in light of the recent food price crisis of 2007/08, the thesis looks at the impacts of increasing agricultural market integration on food price transmission from global to domestic markets in six Latin American countries, namely Argentina, Brazil, Chile, Colombia, Mexico and Peru. To identify possible cointegrating relationships between the domestic food consumer price indices and world food price levels, subject to different degrees of agricultural market integration in the six Latin American countries, a single equation error correction model is used. Results suggest that global agricultural market integration has led to different levels of price path-through in the studied countries. Especially in the short-run, transmission rates depend on the degree of trade openness, while in the long-run transmission rates are high, but largely independent of the country-specific trade regime. Hence, under world price shocks more trade openness brings with it more price instability in the short-term and the resulting persistence in the long-term. However, these findings do not necessarily verify the usefulness of trade policies, often applied by governments to buffer such price shocks. First, because there is a considerable risk of price volatility due to domestic supply shocks if self-sufficiency is promoted. Second, protectionism bears the risk of excluding a country from participating in beneficial high-value agricultural supply chains, thereby hampering economic development. Nevertheless, to reduce households’ vulnerability to sudden and large increases of food prices, effective policies to buffer food price shocks should be put in place, but must be carefully planned with the required budget readily available. Third, globalization affects the structure of an economy and, by different means, the distribution of income in a country. Peru serves as an example to dive deeper into questions related to changes in the income distribution in rural areas. Peru, a country being increasingly integrated into global food markets, experienced large drops in extreme rural poverty, but persistently high rates of moderate rural poverty and rural income inequality between 2004 and 2012. The thesis aims at disentangling the driving forces behind these dynamics by using a microsimulation model based on rural household income generation models. Results provide evidence that the main force behind poverty reduction was overall economic growth of the economy due to generally favorable macroeconomic market conditions. These growth effects benefited almost all rural sectors, and led to declines in extreme rural poverty, especially among potato and maize farmers. In part, these farmers probably benefited from policy changes towards more open trade regimes and the resulting higher producer prices in times of elevated global food price levels. However, the results also suggest that entry barriers existed for the poorer part of the population to participate in well-paid wage-employment outside of agriculture or in high-value crop production. This could be explained by a lack of sufficient access to important rural assets. For example, poor people’s educational attainment was hardly better in 2012 than in 2004. Also land and labor endowments, especially of (poor) maize and potato growers, rather decreased than increased over time. This leads to the conclusion that there is still scope for policy action to facilitate access to these assets, which could contribute to the eradication of rural poverty. The thesis concludes that agricultural trade can be one important means to provide a growing and richer world population with sufficient amounts of calories. To avoid adverse environmental effects and negative impacts for poor food consumers and producers, the focus should lie on agricultural productivity improvements, considering environmental limits and be socially inclusive. In this sense, it will be crucial to further develop technological solutions that guarantee resource-sparing agricultural production practices, and to remove entry barriers for small poor farmers to export markets which might allow for technological spill-over effects from high-value global agricultural supply chains.
Resumo:
La presente tesis tiene por finalidad contribuir al conocimiento de los procesos de transformación de las ciudades convencionales en Ciudades Inteligentes o Smart Cities, el nuevo paradigma urbano, que surge como consecuencia de la utilización de las Tecnologías de la Información y de las Comunicaciones, las TIC, para mejorar la calidad de vida de las personas y aumentar la eficiencia y eficacia de los procesos, servicios e infraestructuras de la ciudad. El proceso de urbanización de la población mundial constituye una de las principales tendencias globales. Los retos a los que se enfrentan las urbes actuales para satisfacer las necesidades de sus habitantes, así como la forma en que cada ciudad aborda dichos retos, propician el desarrollo de estudios comparativos y rankings de ciudades. La oportunidad para llevar a cabo esta tesis deriva de: La novedad del concepto de Ciudad Inteligente. La necesidad de establecer estudios comparativos, respecto a dicho concepto, entre ciudades con características socioeconómicas y culturales comunes, dado que la mayoría de los estudios y rankings se desarrollan para conjuntos de ciudades cuyas características son muy dispares, pues, en general son seleccionadas por su condición de capitales de estados o de centros económicos-financieros. El interés de disponer de estudios sobre ciudades con tamaños de población medianos, inferiores al millón de habitantes, las cuales tienen baja presencia en los estudios comparativos. La inexistencia de estudios comparativos entre las ciudades españolas, en relación con el concepto de Ciudad Inteligente. La existencia de la Red Española de Ciudades Inteligentes, que permite disponer de una muestra de ciudades adecuada, para llevar a cabo un estudio comparativo de acuerdo con los puntos anteriores. El objetivo general de la presente tesis es contribuir al conocimiento de los procesos de transformación de la ciudad convencional en Ciudad Inteligente, a través de la formulación y aplicación de un modelo de evaluación, basado en el concepto holístico de Ciudad Inteligente o Smart City y desde la perspectiva del ciudadano. La metodología de trabajo seguida comprende, en primer lugar, la revisión del estado del arte, centrada en tres aspectos: la evolución del concepto Smart City, los estudios comparativos sobre Ciudades Inteligentes y las medidas que las ciudades españolas están implantando en la práctica para llevar a cabo su transformación en Ciudades Inteligentes. A continuación se lleva a cabo el diseño el modelo de evaluación. Este modelo refleja el carácter holístico del concepto de Ciudad Inteligente, para lo cual, de acuerdo con las definiciones que encontramos en la literatura, evalúa la situación de cada ciudad en relación con seis ejes o pilares, comúnmente aceptados por los diferentes autores: e-Gobierno y e-Gobernanza, Movilidad, Sostenibilidad Ambiental, Desarrollo Económico, Capital Intelectual y Calidad de Vida. El trabajo desarrollado implica un análisis, que se desarrolla de forma ordenada para cada uno de los ejes y, dentro de éstos, para sus correspondientes factores. En total se analizan 18 factores. Para cada uno de los ejes se lleva a cabo una revisión de las iniciativas más representativas para, a continuación, analizar y evaluar los correspondientes los factores. De forma complementaria al desarrollo del trabajo, se llevó a cabo una encuesta, dirigida a profesionales de diferentes áreas y sectores, todos ellos en el ámbito de las Ciudades Inteligentes. El objetivo de la encuesta es conocer, de acuerdo con la opinión de los profesionales, la situación actual en materia de despliegue de Ciudades Inteligentes, las actuaciones que consideran de mayor interés para la ciudad y las barreras del proceso de cambio. Una vez definido el modelo, se ha aplicado a las 62 ciudades que forman la Red Española de Ciudades Inteligentes (RECI), valorando los factores y los ejes para cada una de ellas. Así mismo, se ha analizado la influencia de las tres variables siguientes: tamaño de población, densidad de población y presupuesto municipal por habitante, determinando la relación entre el porcentaje de ciudades inteligentes de la muestra, en cada factor. Adicionalmente en el eje Capital Intelectual,se analizó la influencia del porcentaje de habitantes con estudios superiores. Las 62 ciudades RECI que componen la muestra evaluada, representan el 43 % de las ciudades españolas que cuentan con poblaciones superiores a los 50.000 habitantes. La población que abarca la muestra de ciudades estudiada representa el 35% de la población española. Finalmente, se ha determinado el ranking con las ciudades de RECI, de acuerdo con el modelo diseñado. Así mismo se ha llevado a cabo el análisis de sensibilidad, determinado el ranking resultante para la misma muestra de ciudades, aplicando la ponderación de los factores. Las principales aportaciones de la tesis son: Desarrollar un modelo de evaluación de ciudades basada en el concepto holístico de la Smart City y desde la perspectiva del ciudadano. Desarrollar una metodología de trabajo fundamentada en el análisis sistematizado de las web municipales, como medio para conocer la situación de las ciudades, en lugar de los datos estadísticos publicados, que son la fuente de información habitualmente empleada en los estudios comparativos. Disponer de un estudio comparativo específico de ciudades españolas. Llevar a cabo un estudio sobre una muestra de ciudades de tamaño medio, con características socioeconómicas y culturales comparables. Mejorar el conocimiento de los procesos que se están llevando a cabo en ciudades con poblaciones inferiores al millón de habitantes. The purpose of this thesis is to contribute to the knowledge of the cities and the transformation that is taking part in traditional cities becoming Smart Cities. The Smart City concept is the new urban paradigm that is born from the extensive use of Information Technologies (IT) in order to accomplish better citizen’s quality of life as well as improvements in urban processes, services and infrastructures. Several rankings and benchmarking studies are being conducted globally, in response to the increasing of urban population that is taking part around the world and the subsequent challenges to be confronted by the cities. This thesis aims to contribute to these studies. The opportunity for this thesis comes from: The Smart City concept as a new concept. The need of benchmarking studies focused on the Smart City concept, carried on cities with similar social and economic characteristics. The interest on benchmarking studies on medium size cities (with less than one million inhabitants). The absence of benchmarking studies on Spanish cities. The existence of the Spanish Smart Cities Network that can be considered an appropriate sample for a benchmark study. The main goal of this thesis is to develop a Smart Cities assessment model based on the citizen point of view and taking into account a holistic concept of Smart City. The thesis methodology starts with the state of the art revision, focused on three items: the Smart City concept, the benchmark studies and the projects actually developed by the Spanish cities under processes for becoming Smart Cities. The next step is the assessment model design, in accordance with the six main axes or pillars referred in the academic literature: e-Government and e-Governance, Mobility, Environmental Sustainability, Economic Development, Smart Citizens and Quality of Life. Also, a survey has been conducted and addressed to experts working on the different areas related to the Smart Cities. The aim of this survey is to know their opinion about the deployment of the Smart Cities, the priorities considered by the cities and the barriers that delay the change processes. Once the assessment model was ready, it was applied to the Spanish Smart Cities Network, with 62 member cities. Also, the bearing of three variables: city population, population density and city budget per inhabitant, are studied. The 62 cities studied are 43 % of the Spanish cities with population over 50.000 inhabitants. The population living in these cities is the 35% of total Spanish population. The main contribution of this thesis are: An assessment model for Smart Cities that takes into account the holistic concept of the Smart City as well as the citizen experience. A methodology that comprises municipal web analysis instead of statistics data, which are the usual source of data for current benchmarking studies. A Spanish Smart Cities benchmark. A benchmark on medium size cities with similar social and economic characteristics. A better understanding of the urban processes that are taking part on cities under one million inhabitants.
Resumo:
La presente tesis examina el uso potencial y actual de las técnicas de simulación visual aplicadas al campo de la gestión y la planificación del arbolado urbano. El estudio incluye las aplicaciones potenciales de las visualizaciones por ordenador, así como los beneficios que esto acarrearía. También se analizan las posibles barreras que surgirían de la implementación de esta nueva herramienta y se ofrece una lista de recomendaciones para superarlas. La investigación tiene un carácter exploratorio que utiliza una combinación de técnicas de investigación cuantitativas y cualitativas, dónde se emplean cuestionarios y entrevistas personales semi-estructuradas para estudiar y analizar las opiniones y reacciones de los gestores de arbolado urbano de los distritos de la ciudad de Londres (Reino Unido), denominados Tree Officers (LTOs). Para el desarrollo de la tesis se recopilaron y analizaron las respuestas al cuestionario del 41 por ciento de los LTOs pertenecientes al 88 por ciento de los distritos de Londres y se realizaron un total de 17 entrevistas personales. Los resultados del análisis estadístico de las respuestas del cuestionario y los análisis cruzados de las distintas variables se complementaron con las conclusiones obtenidas del análisis temático de los datos cualitativos recopilados durante las entrevistas. Los usos potenciales de las técnicas de simulación visual aplicadas a la gestión y planificación del arbolado urbano sugeridos fueron obtenidos combinado las conclusiones de, primero, la comparación de las cuestiones que los LTOs consideraron que más tiempo y recursos necesitaban y que actualmente no era posible resolverlas satisfactoriamente con las herramientas y los procesos disponibles, con la información acerca de cómo se habían empleado las visualizaciones en situaciones similares en otros campos tales como planificación urbano, el paisajismo o la gestión forestal. Segundo, se analizaron las reacciones y opiniones de los LTOs ante un conjunto de visualizaciones presentadas durante las entrevistas, desarrolladas ad hoc para mostrar un abanico representativo de ejemplos de utilización de las técnicas de simulación visual, que, a su vez se complementaron con los usos adicionales que los propios LTOs sugirieron tras ver las visualizaciones presentadas. Los resultados muestran que el uso actual de simulaciones visuales por parte de los LTOs es muy limitado pero si que reciben un gran número de visualizaciones de otros departamentos y como parte de la documentación presentada en las solicitudes de permisos para edificación o desarrollo urbanístico. Los resultados indican que las visualizaciones que son presentadas a los LTOs no son objetivas ni precisas por lo que se argumenta que esta situación es un factor importante que impide una toma de decisiones adecuada y una correcta transmisión de infracción al público y al resto de partes implicadas. Se sugiere la creación de un código que regule el uso de visualizaciones en el campo de la gestión y planificación del arbolado urbano. ABSTRACT This thesis examined the use of computer visualizations in urban forestry management and planning. Potential roles of visualizations were determined the benefits that its use would provide. Additionally, the possible barriers in the implementation of visualizations in urban forestry management and planning were also studied and recommendations on how to overcome them were provided The research conducted was an exploratory study using survey research methods and personal semi-structured interviews. The perspectives and reactions of London (UK) boroughs’ tree officers (LTOs) were analysed combining quantitative and qualitative research methods. The study surveyed 41 percent of all Tree Officers in London, obtaining responses from 88 percent of the boroughs and performed 17 personal interviews. Statistical analysis of the data and cross-variables analysis provided rich information that was then complemented with the conclusions from thematic analysis of the qualitative data from the interviews. Potential roles of visualizations were determined first by understanding the challenges that LTOs are facing today and comparing them with how visualizations have helped in similar situations in urban forestry and other related fields like landscape architecture, urban planning and forestry; second, the reactions of LTOs to a set of examples of proposed uses of visualizations were also complemented with the additional uses proposed by LTOs after seeing the visualizations. The visualizations were created ad hoc to show a variety of representative examples of the sue of visualization in urban forestry management and planning and were presented during the interviews to LTOS. Results show that the current production of visualizations is very reduced among tree officers but that they are frequent receptors of visualizations coming from other departments and as part of the documentation of planning applications. Findings show that the current visualizations that get to Tree Officers are biased and inaccurate and therefore it is argued the the current use of visualizations is a threat to legitimate informed decision making and public information. The development of a code for the use of visualizations in urban forestry management and planning is suggested.
Resumo:
La competitividad del transporte de mercancías depende del estado y funcionamiento de las redes existentes y de sus infraestructuras, no del modo de transporte. En concreto, la rentabilidad o la reducción de los costes de producción del transporte marítimo se vería incrementado con el uso de buques de mayor capacidad y con el desarrollo de plataformas portuarias de distribución o puertos secos, ya que el 90% del comercio entre la Unión Europea y terceros países se realiza a través de sus puertos a un promedio de 3,2 billones de toneladas de mercancías manipuladas cada año y el 40% del tráfico intraeuropeo utiliza el transporte marítimo de corta distancia. A pesar de que los puertos europeos acogen anualmente a más de 400 millones de pasajeros, los grandes desarrollos se han producido en los puertos del norte de Europa (Róterdam, Amberes, Ámsterdam). Los países del Sur de Europa deben buscar nuevas fórmulas para ser más competitivos, ya sea mediante creación de nuevas infraestructuras o mediante refuerzo de las existentes, ofreciendo los costes de los puertos del Norte. El fomento del transporte marítimo y fluvial como alternativa al transporte por carretera, especialmente el transporte marítimo de corta distancia, ha sido impulsado por la Comisión Europea (CE) desde 2003 a través de programas de apoyo comunitario de aplicación directa a las Autopistas del Mar, a modo de ejemplo, cabría citar los programas Marco Polo I y II, los cuales contaron con una dotación presupuestaria total de 855 millones de euros para el período 2003 – 2013; en ese período de tiempo se establecieron objetivos de reducción de congestión vial y mejora del comportamiento medio ambiental del sistema de transporte de mercancías dentro de la comunidad y la potenciación de la intermodalidad. El concepto de Autopista del Mar surge en el Libro Blanco de Transportes de la Comisión Europea “La política europea de transportes de cara al 2010: La hora de la verdad” del 12 de diciembre de 2001, en el marco de una política europea para fomento y desarrollo de sistemas de transportes sostenibles. Las Autopistas del Mar consisten en rutas marítimas de corta distancia entre dos puntos, de menor distancia que por vía terrestre, en las que a través del transporte intermodal mejoran significativamente los tiempos y costes de la cadena logística, contribuyen a la reducción de accidentes, ruidos y emisiones de CO2 a la atmósfera, permite que los conductores pierdan horas de trabajo al volante y evita el deterioro de las infraestructuras terrestres, con el consiguiente ahorro en mantenimiento. La viabilidad de una Autopista del Mar depende tanto de factores de ubicación geográficos, como de características propias del puerto, pasando por los diferentes requerimientos del mercado en cada momento (energéticos, medio ambientales y tecnológicos). Existe un elemento nuevo creado por la Comisión Europea: la red transeuropea de transportes (RTE-T). En el caso de España, con sus dos accesos por los Pirineos (La Junquera e Irún) como únicos pasos terrestres de comunicación con el continente y con importantes limitaciones ferroviarias debido a los tres anchos de vía distintos, le resta competitividad frente al conjunto europeo; por el contrario, España es el país europeo con más kilómetros de costa (con más de 8.000 km) y con un emplazamiento geográfico estratégico, lo que le convierte en una plataforma logística para todo el sur de Europa, por lo que las Autopistas del Mar tendrán un papel importante y casi obligado para el desarrollo de los grandes corredores marítimos que promueve Europa. De hecho, Gijón y Vigo lo han hecho muy bien con sus respectivas líneas definidas como Autopistas del Mar y que conectan con el puerto francés de Nantes-Saint Nazaire, ya que desde ahí los camiones pueden coger rutas hacia el Norte. Paralelamente, la Unión Europea ha iniciado los pasos para el impulso de la primera Autopista del Mar que conectará España con el mercado de Reino Unido, concretamente los Puertos de Bilbao y Tilbury. Además, España e Italia sellaron un acuerdo internacional para desarrollar Autopistas del Mar entre ambos países, comprometiéndose a impulsar una docena de rutas entre puertos del litoral mediterráneo español y el italiano. Actualmente, están en funcionando los trayectos como Barcelona-Génova, Valencia-Civitavecchia y Alicante- Nápoles, notablemente más cortos por mar que por carretera. Bruselas identificó cuatro grandes corredores marítimos que podrían concentrar una alta densidad de tráfico de buques, y en dos de ellos España ya tenía desde un principio un papel crucial. La Comisión diseñó el 14 de abril de 2004, a través del proyecto West-Mos, una red de tráfico marítimo que tiene como vías fundamentales la denominada Autopista del Báltico (que enlaza Europa central y occidental con los países bálticos), la Autopista de Europa suroriental (que une el Adriático con el Jónico y el Mediterráneo más oriental) y también la Autopista de Europa occidental y la Autopista de Europa suroccidental (que enlazan España con Reino Unido y la Francia atlántica y con la Francia mediterránea e Italia, respectivamente). Para poder establecer Autopistas del Mar entre la Península Ibérica y el Norte de Europa primará especialmente la retirada de camiones en la frontera pirenaica, donde el tráfico pesado tiene actualmente una intensidad media diaria de 8.000 unidades, actuando sobre los puntos de mayor congestión, como por ejemplo los Alpes, los Pirineos, el Canal de la Mancha, las carreteras fronterizas de Francia y Euskadi, y proponiendo el traslado de las mercancías en barcos o en trenes. Por su parte, para contar con los subsidios y apoyos europeos las rutas seleccionadas como Autopistas del Mar deben mantener una serie de criterios de calidad relacionados con la frecuencia, coste “plataforma logística a plataforma logística”, simplicidad en procedimientos administrativos y participación de varios países, entre otros. Los estudios consideran inicialmente viables los tramos marítimos superiores a 450 millas, con un volumen de unas 15.000 plataformas al año y que dispongan de eficientes comunicaciones desde el puerto a las redes transeuropeas de autopistas y ferrocarril. Otro objetivo de las Autopistas del Mar es desarrollar las capacidades portuarias de forma que se puedan conectar mejor las regiones periféricas a escala del continente europeo. En lo que a Puertos se refiere, las terminales en los muelles deben contar con una línea de atraque de 250 m., un calado superior a 8 m., una rampa “ro-ro” de doble calzada, grúas portainer, y garantizar operatividad para un mínimo de dos frecuencias de carga semanales. El 28 de marzo de 2011 se publicó el segundo Libro Blanco sobre el futuro del transporte en Europa “Hoja de ruta hacia un espacio único europeo de transporte: por una política de transportes competitiva y sostenible”, donde se definió el marco general de las acciones a emprender en los próximos diez años en el ámbito de las infraestructuras de transporte, la legislación del mercado interior, la reducción de la dependencia del carbono, la tecnología para la gestión del tráfico y los vehículos limpios, así como la estandarización de los distintos mercados. Entre los principales desafíos se encuentran la eliminación de los cuellos de botella y obstáculos diversos de nuestra red europea de transporte, minimizar la dependencia del petróleo, reducir las emisiones de GEI en un 60% para 2050 con respecto a los niveles de 1990 y la inversión en nuevas tecnologías e infraestructuras que reduzcan estas emisiones de transporte en la UE. La conexión entre la UE y el norte de África provoca elevados niveles de congestión en los puntos más críticos del trayecto: frontera hispano-francesa, corredor del Mediterráneo y el paso del estrecho. A esto se le añade el hecho de que el sector del transporte por carretera está sujeto a una creciente competencia de mercado motivada por la eliminación de las barreras europeas, mayores exigencias de los cargadores, mayores restricciones a los conductores y aumento del precio del gasóleo. Por otro lado, el mercado potencial de pasajeros tiene una clara diferenciación en tipos de flujos: los flujos en el período extraordinario de la Operación Paso del Estrecho (OPE), enfocado principalmente a marroquíes que vuelven a su país de vacaciones; y los flujos en el período ordinario, enfocado a la movilidad global de la población. Por tanto, lo que se pretende conseguir con este estudio es analizar la situación actual del tráfico de mercancías y pasajeros con origen o destino la península ibérica y sus causas, así como la investigación de las ventajas de la creación de una conexión marítima (Autopista del Mar) con el Norte de África, basándose en los condicionantes técnicos, administrativos, económicos, políticos, sociales y medio ambientales. The competitiveness of freight transport depends on the condition and operation of existing networks and infrastructure, not the mode of transport. In particular, profitability could be increased or production costs of maritime transport could be reduced by using vessels with greater capacity and developing port distribution platforms or dry ports, seeing as 90% of trade between the European Union and third countries happens through its ports. On average 3,2 billion tonnes of freight are handled annualy and 40% of intra-European traffic uses Short Sea Shipping. In spite of European ports annually hosting more than 400 million passengers, there have been major developments in the northern European ports (Rotterdam, Antwerp, Amsterdam). Southern European countries need to find new ways to be more competitive, either by building new infrastructure or by strengthening existing infrastructure, offering costs northern ports. The use of maritime and river transport as an alternative to road transport, especially Short Sea Shipping, has been driven by the European Commission (EC) from 2003 through community support programs for the Motorways of the Sea. These programs include, for example, the Marco Polo I and II programs, which had a total budget of 855 million euros for the period 2003-2013. During this time objectives were set for reducing road congestion, improving the environmental performance of the freight transport system within the community and enhancing intermodal transport. The “Motorway of the Sea” concept arises in the European Commission’s Transport White Paper "European transport policy for 2010: time to decide" on 12 December 2001, as part of a European policy for the development and promotion of sustainable transport systems. A Motorway of the Sea is defined as a short sea route between two points, covering less distance than by road, which provides a significant improvement in intermodal transport times and to the cost supply chain. It contributes to reducing accidents, noise and CO2 emissions, allows drivers to shorten their driving time and prevents the deterioration of land infrastructure thereby saving on maintenance costs. The viability of a Motorway of the Sea depends as much on geographical location factors as on characteristics of the port, taking into account the different market requirements at all times (energy, environmental and technological). There is a new element created by the European Commission: the trans-European transport network (TEN-T). In the case of Spain, with its two access points in the Pyrenees (La Junquera and Irun) as the only land crossings connected to the mainland and major railway limitations due to the three different gauges, it appears less competitive compared to Europe as a whole. However, Spain is the European country with the most kilometers of coastline (over 8,000 km) and a strategic geographical location, which makes it a logistics platform for the all of Southern Europe. This is why the Motorways of the Sea will have an important role, and an almost necessary one to develop major maritime corridors that Europe supports. In fact, Gijon and Vigo have done very well with their respective sea lanes defined as Motorways of the Sea and which connect with the French port of Nantes-Saint Nazaire, as from there trucks can use nort-heading routes. In parallel, the European Union has taken the first steps to boost the first Motorway of the Sea linking Spain to the UK market, specifically the ports of Bilbao and Tilbury. Furthermore, Spain and Italy sealed an international agreement to develop Motorways of the Sea between both countries, pledging to develop a dozen routes between ports on the Spanish and Italian Mediterranean coasts. Currently, there are sea lanes already in use such as Barcelona-Genova, Valencia-Civitavecchia and Alicante-Naples, these are significantly shorter routes by sea than by road. Brussels identified four major maritime corridors that could hold heavy concentrate shipping traffic, and Spain had a crucial role in two of these from the beginning. On 14 April 2004 the Commission planned through the West-Mos project, a network of maritime traffic which includes the essential sea passages the so-called Baltic Motorway (linking Central and Western Europe with the Baltic countries), the southeast Europe Motorway (linking the Adriatic to the Ionian and eastern Mediterranean Sea), the Western Europe Motorway and southwestern Europe Motorway (that links Spain with Britain and the Atlantic coast of France and with the French Mediterranean coast and Italy, respectively). In order to establish Motorways of the Sea between the Iberian Peninsula and Northern Europe especially, it is necessary to remove trucks from the Pyrenean border, where sees heavy traffic (on average 8000 trucks per day) and addressing the points of greatest congestion, such as the Alps, the Pyrenees, the English Channel, the border roads of France and Euskadi, and proposing the transfer of freight on ships or trains. For its part, in order to receive subsidies and support from the European Commission, the routes selected as Motorways of the Sea should maintain a series of quality criteria related to frequency, costs "from logistics platform to logistics platform," simplicity in administrative procedures and participation of several countries, among others. To begin with, studies consider viable a maritime stretch of at least 450 miles with a volume of about 15,000 platforms per year and that have efficient connections from port to trans-European motorways and rail networks. Another objective of the Motorways of the Sea is to develop port capacity so that they can better connect peripheral regions across the European continent. Referring ports, the terminals at the docks must have a berthing line of 250 m., a draft greater than 8 m, a dual carriageway "ro-ro" ramp, portainer cranes, and ensure operability for a minimum of two loads per week. On 28 March 2011 the second White Paper about the future of transport in Europe "Roadmap to a Single European Transport Area – Towards a competitive and resource efficient transport system" was published. In this Paper the general framework of actions to be undertaken in the next ten years in the field of transport infrastructure was defined, including internal market legislation, reduction of carbon dependency, traffic management technology and clean vehicles, as well as the standardization of different markets. The main challenges are how to eliminate bottlenecks and various obstacles in our European transport network, minimize dependence on oil, reduce GHG emissions by 60% by 2050 compared to 1990 levels and encourage investment in new technologies and infrastructure that reduce EU transport emissions. The connection between the EU and North Africa causes high levels of congestion on the most critical points of the journey: the Spanish-French border, the Mediterranean corridor and Gibraltar Strait. In addition to this, the road transport sector is subject to increased market competition motivated by the elimination of European barriers, greater demands of shippers, greater restrictions on drivers and an increase in the price of diesel. On the other hand, the potential passenger market has a clear differentiation in type of flows: flows in the special period of the Crossing the Straits Operation (CSO), mainly focused on Moroccans who return home on vacation; and flows in the regular session, focused on the global mobile population. Therefore, what I want to achieve with this study is present an analysis of the current situation of freight and passengers to or from the Iberian Peninsula and their causes, as well as present research on the advantages of creating a maritime connection (Motorways of the Sea) with North Africa, based on the technical, administrative, economic, political, social and environmental conditions.
Resumo:
Una de las barreras para la aplicación de las técnicas de monitorización de la integridad estructural (SHM) basadas en ondas elásticas guiadas (GLW) en aeronaves es la influencia perniciosa de las condiciones ambientales y de operación (EOC). En esta tesis se ha estudiado dicha influencia y la compensación de la misma, particularizando en variaciones del estado de carga y temperatura. La compensación de dichos efectos se fundamenta en Redes Neuronales Artificiales (ANN) empleando datos experimentales procesados con la Transformada Chirplet. Los cambios en la geometría y en las propiedades del material respecto al estado inicial de la estructura (lo daños) provocan cambios en la forma de onda de las GLW (lo que denominamos característica sensible al daño o DSF). Mediante técnicas de tratamiento de señal se puede buscar una relación entre dichas variaciones y los daños, esto se conoce como SHM. Sin embargo, las variaciones en las EOC producen también cambios en los datos adquiridos relativos a las GLW (DSF) que provocan errores en los algoritmos de diagnóstico de daño (SHM). Esto sucede porque las firmas de daño y de las EOC en la DSF son del mismo orden. Por lo tanto, es necesario cuantificar y compensar el efecto de las EOC sobre la GLW. Si bien existen diversas metodologías para compensar los efectos de las EOC como por ejemplo “Optimal Baseline Selection” (OBS) o “Baseline Signal Stretching” (BSS), estas, se emplean exclusivamente en la compensación de los efectos térmicos. El método propuesto en esta tesis mezcla análisis de datos experimentales, como en el método OBS, y modelos basados en Redes Neuronales Artificiales (ANN) que reemplazan el modelado físico requerido por el método BSS. El análisis de datos experimentales consiste en aplicar la Transformada Chirplet (CT) para extraer la firma de las EOC sobre la DSF. Con esta información, obtenida bajo diversas EOC, se entrena una ANN. A continuación, la ANN actuará como un interpolador de referencias de la estructura sin daño, generando información de referencia para cualquier EOC. La comparación de las mediciones reales de la DSF con los valores simulados por la ANN, dará como resultado la firma daño en la DSF, lo que permite el diagnóstico de daño. Este esquema se ha aplicado y verificado, en diversas EOC, para una estructura unidimensional con un único camino de daño, y para una estructura representativa de un fuselaje de una aeronave, con curvatura y múltiples elementos rigidizadores, sometida a un estado de cargas complejo, con múltiples caminos de daños. Los efectos de las EOC se han estudiado en detalle en la estructura unidimensional y se han generalizado para el fuselaje, demostrando la independencia del método respecto a la configuración de la estructura y el tipo de sensores utilizados para la adquisición de datos GLW. Por otra parte, esta metodología se puede utilizar para la compensación simultánea de una variedad medible de EOC, que afecten a la adquisición de datos de la onda elástica guiada. El principal resultado entre otros, de esta tesis, es la metodología CT-ANN para la compensación de EOC en técnicas SHM basadas en ondas elásticas guiadas para el diagnóstico de daño. ABSTRACT One of the open problems to implement Structural Health Monitoring techniques based on elastic guided waves in real aircraft structures at operation is the influence of the environmental and operational conditions (EOC) on the damage diagnosis problem. This thesis deals with the compensation of these environmental and operational effects, specifically, the temperature and the external loading, by the use of the Chirplet Transform working with Artificial Neural Networks. It is well known that the guided elastic wave form is affected by the damage appearance (what is known as the damage sensitive feature or DSF). The DSF is modified by the temperature and by the load applied to the structure. The EOC promotes variations in the acquired data (DSF) and cause mistakes in damage diagnosis algorithms. This effect promotes changes on the waveform due to the EOC variations of the same order than the damage occurrence. It is difficult to separate both effects in order to avoid damage diagnosis mistakes. Therefore it is necessary to quantify and compensate the effect of EOC over the GLW forms. There are several approaches to compensate the EOC effects such as Optimal Baseline Selection (OBS) or Baseline Signal Stretching (BSS). Usually, they are used for temperature compensation. The new method proposed here mixes experimental data analysis, as in the OBS method, and Artificial Neural Network (ANN) models to replace the physical modelling which involves the BSS method. The experimental data analysis studied is based on apply the Chirplet Transform (CT) to extract the EOC signature on the DSF. The information obtained varying EOC is employed to train an ANN. Then, the ANN will act as a baselines interpolator of the undamaged structure. The ANN generates reference information at any EOC. By comparing real measurements of the DSF against the ANN simulated values, the damage signature appears clearly in the DSF, enabling an accurate damage diagnosis. This schema has been applied in a range of EOC for a one-dimensional structure containing single damage path and two dimensional real fuselage structure with stiffener elements and multiple damage paths. The EOC effects tested in the one-dimensional structure have been generalized to the fuselage showing its independence from structural arrangement and the type of sensors used for GLW data acquisition. Moreover, it can be used for the simultaneous compensation of a variety of measurable EOC, which affects the guided wave data acquisition. The main result, among others, of this thesis is the CT-ANN methodology for the compensation of EOC in GLW based SHM technique for damage diagnosis.
Resumo:
Los ensayos de bombeo son, sin lugar a dudas, una de las pruebas más fiables y de mayor interés que se hacen en el medio físico. No son pruebas estrictamente puntuales, dado que el bombeo atrae flujo desde distancias lejanas al pozo, la prueba tiene una excelente representatividad espacial. Los métodos de interpretación mediante ensayos de bombeo se empezaron a plantear en la primera mitad del pasado siglo. Con los ensayos de bombeo se puede calcular la transmisividad y coeficiente de almacenamiento de las formaciones acuíferas y suministran información sobre el tipo de acuífero, la calidad constructiva del pozo de extracción, la existencia de barreras impermeable o bordes de recarga próximos, e incluso en algunas circunstancias permiten el cálculo del área de embalse subterráneo. Desde mediados del siglo 20 existe una eficaz y abundante gama de métodos analítico-interpretativos de ensayos de bombeo, tanto en régimen permanente como transitorio. Estos métodos son ampliamente conocidos y están muy experimentados a lo largo de muchos países, sin embargo, hoy día, podrían utilizarse modelos de flujo para la interpretación, logrando la misma fiabilidad e incluso mejores posibilidades de análisis. Muchos ensayos que no pueden interpretarse porque las configuraciones del medio son demasiado complejas y no están disponibles, o no es posible, el desarrollo de métodos analíticos, tienen buena adaptación y en ocasiones muy fácil solución haciendo uso de los métodos numéricos de simulación del flujo. En esta tesis se ha buscado una vía de interpretar ensayos de bombeo haciendo uso de modelos de simulación del flujo. Se utiliza el modelo universal MODFLOW del United States Geological Survey, en el cual se configura una celda de simulación y mallado particularmente adecuados para el problema a tratar, se valida con los métodos analíticos existentes. Con la célula convenientemente validada se simulan otros casos en los que no existen métodos analíticos desarrollados dada la complejidad del medio físico a tratar y se sacan las oportunas conclusiones. Por último se desarrolla un modelo específico y la correspondiente aplicación de uso general para la interpretación numérica de ensayos de bombeo tanto con las configuraciones normales como con configuraciones complejas del medio físico. ABSTRACT Pumping tests are, without doubt, one of the most reliable and most interesting tests done in the physical environment. They are not strictly anecdotal evidence, since pumping flow attracts from far distances to the well, the test has excellent spatial representation. Methods of interpretation by pumping tests began to arise in the first half of last century. With pumping tests, can be calculated transmissivity and storage coefficient of the aquifer formations, and provide information on the type of aquifer, the construction quality of the well, the existence of waterproof barriers or borders next recharge, and even in some circumstances allow calculating the area of underground reservoir. Since the mid-20th century there is effective and abundant range of analytical interpretative pumping tests, both in steady state and transient methods. These methods are very widely known and experienced over many countries, however, nowadays, may flow models used for interpretation, obtaining equally reliable or even better possibilities for analysis. Many trials cannot be interpreted as environmental settings are too complex and are not available, or not possible, the development of analytical methods, have good adaptation and sometimes very easily solved using numerical flow simulation methods. This thesis has sought a way to interpret pumping tests using flow simulation models. MODFLOW universal model of United States Geological Survey, in which a simulation cell and meshing particularly suitable for the problem to be treated, is validated with existing analytical methods used is set. With suitably validated cell other cases where there are no analytical methods developed given the complexity of the physical environment to try and draw appropriate conclusions are simulated. Finally, a specific model and the corresponding application commonly used for numerical interpretation of pumping tests both with normal settings as complex configurations of the physical environment is developed.
Resumo:
El motivo de abordar esta Tesis responde al hecho personal de haber vivido históricamente momentos cumbre de la Construcción Naval en España y no dejar de plantearme, a pesar de mi distancia del sector desde el punto de vista profesional, en las opciones de futuro para volver a ser competitivos en un sector que ha tenido un peso tan importante en la economía española, y que tanto ha ilusionado a centenares de profesionales y compañeros a lo largo de muchas décadas con el optimismo de estar aportando valor para que España fuera competitiva. A lo largo de los últimos años, y la relación con el ámbito de la dirección de Empresas desde el punto de vista de una Escuela de Negocios, así como el contacto con enfoques estratégicos en sectores muy diversos me animó a plantearme la Tesis con el objetivo de reflejar el estado actual del sector y poder valorar alternativas de futuro para la Construcción Naval española, aun sabiendo que son muchos los “maestros” realmente autorizados en nuestros país, con amplios conocimientos y experiencia, que muchas veces, a pesar de las propuestas y de los esfuerzos que han realizado para impulsar el sector, se han encontrado con situaciones adversas, bien de tipo económico, social‐laboral, político ‐a nivel nacional, europeo o global‐, etc., que han impedido un fortalecimiento del sector como todos hubiéramos deseado. La presión histórica ejercida por los países competidores en Construcción naval del ámbito asiático y lejano oriente, así como los compromisos derivados de las Directivas europeas, han obligado al sector de la Construcción Naval en España a buscar unos nuevos posicionamientos estratégicos presentes y, sobre todo, de futuro. Partiendo de un análisis del sector naval, tanto del mercado nacional como del internacional, con especial foco en los países líderes, se plantea investigar, siguiendo el modelo de Porter, las fuerzas competitivas que han influido en estas últimas décadas y que han conducido a la situación actual, valorando la estructura competitiva, el entorno relevante y los efectos de la globalización, con las amenazas de los nuevos y actuales competidores y las barreras existentes. Para abordar esta investigación se ha realizado un análisis del sector naval con la siguiente metodología: 1. Análisis del estado actual de la construcción naval en España. 2. Análisis del estado actual de la construcción naval en el mundo. 3. Estudio de la demanda en el mercado y evolución de la misma en los últimos años: muy centrada en los países líderes y más competitivos. 4. Estudio de las perspectivas de negocio en el sector marítimo y oceánico: estudio particular del transporte marítimo y una comparativa con la explotación de recursos oceánicos. Finalmente se decidió no abordar por falta de datos de futuro las construcciones militares. 5. Estudio de características de la industria naval española y capacidad de los astilleros. Se ha focalizado especialmente en la construcción para valorar la capacidad de futuro. 6. Análisis de fuerzas competitivas de la industria naval española a partir del modelo de Porter. En esta parte se incluyen alguno de los factores críticos externos e internos que ayudan a identificar barreras y estrategias en el entorno de la construcción naval como sector global. 7. Identificación de las oportunidades de negocio hacia el 2050. 8. Alternativas para una estrategia competitiva de actuación frente a las oportunidades de futuro en el 2050. Con esta Tesis se aporta un estudio competitivo actualizado, de acuerdo con el modelo de Porter, con el fin de proponer una posible estrategia competitiva de futuro, que posicione competitivamente la industria naval y el sector marítimo en España en las próximas décadas. ABSTRACT The reason for addressing this thesis responds to my personal experience about having lived historical moments summit Shipbuilding in Spain. Despite my distance from this industry from a professional point of view, I have never stopped wonder myself which are the options for the future to become competitive in an industry that has had such an important weight in the Spanish economy, which has excited so hundreds of professionals and peers through many decades with optimism to be adding value to Spain in order to be competitive again. Over recent years, and the relationship with the field of business management from the point of view of a business school, as well as contact with strategic approaches in diverse sectors encouraged me to wonder Thesis order to reflect the current state of the sector and to evaluate future alternatives for the Spanish Shipbuilding, knowing that many "teachers" really allowed in our country, with extensive knowledge and experience that often, despite proposals and the efforts that have been made to boost the sector, have met with adverse situations, whether economic, social and labor, political kind ‐at national, European or global‐level, etc., that have prevented a strengthening of all sectors we wished. The historical pressure from competing countries in Shipbuilding Asian area and Far East, as well as commitments arising from EU directives, have forced the shipbuilding industry in Spain to seek a new strategic positions present and, above all, future. Starting from an analysis of the shipbuilding sector, both national and international market, with special focus on the leading countries, we propose to investigate, following the model of Porter, the competitive forces that have influenced recent decades and have led to the current situation, assessing the competitive structure of the relevant environment and the effects of globalization, with the threat of new and existing competitors and barriers. To address this research has analyzed the naval sector with the following methodology: 1. Analysis of the current state of shipbuilding in Spain. 2. Analysis of the current state of shipbuilding in the world. 3. Study of the demand in the market and evolution of the same in recent years: very focused on the leading and most competitive countries. 4. Study of business prospects in the maritime and oceanic sector: private study of maritime transport and a comparison with the exploitation of ocean resources. Finally it was decided not to address a lack of data future military construction. 5. Study of characteristics of the Spanish shipbuilding and shipyard capacity. It is particularly focused on building the capacity to assess future. 6. Analysis of competitive forces of the Spanish shipbuilding industry from the model of Porter. In this part they include some critics of the external and internal factors that help identify barriers and strategies in the environment of global shipbuilding sector. 7. Identification of business opportunities by 2050. 8. Alternatives to a competitive strategy of action against future opportunities in 2050. This thesis has sought to provide a competitive study updated according to Porter's model, in order to propose a possible future competitive strategy to reach a competitive position at the shipbuilding industry and the maritime sector in Spain in the coming decades. The historical pressure from competing countries in the Asian sphere Shipbuilding and Far East, as well as commitments arising from EU directives have forced the shipbuilding industry in Spain to seek a new strategic positioning. Starting from an analysis of the shipbuilding sector, both national and international market, with a special focus on the leading countries, it is proposed to analyze, following the model of Porter, the competitive forces that have influenced in recent decades and have led to the current situation, studying the competitive structure of the relevant environment and the effects of globalization, with the threat of new and existing competitors and barriers. It concludes with a forecast of future market and business opportunities arising in the global environment of maritime and naval Industry, in order to propose a possible competitive strategy for the near future, which could help to achieve a competitive position on the shipbuilding and maritime sector in Spain for the coming decades.
Resumo:
Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.
Resumo:
Asistimos a una evolución en la relación entre ciudad y resto del territorio. Este cambio desemboca en la eliminación del límite. La ciudad moderna se diluye en el territorio: el límite tradicional que separaba espacio urbano de espacio natural se ha diluído. La Discontinuidad entre la ciudad y el campo no se produce de forma definida (bien mediante un límite abrupto o con un gradiente) sino mediante una interfase fragmentada de funcionamiento inadecuado y que, además, no permite una clara identificación paisajística, creando problemas de eficiencia y de identidad urbana. El primer objetivo de esta investigación será determinar si existe la posibilidad de dibujar gráficamente el límite de nuestras ciudades medias para detectar si realmente existe y de qué manera se produce. A partir de aquí se realizará una catalogación del límite con el objetivo de determinar si existe algún tipo predominante sobre los demás. La comparativa entre las ciudades nos aportará la visión de en qué medida el tipo de límite es común o por el contrario singular a unas características propias de cada ciudad. El muestreo se realiza sobre un total de seis ciudades medias españolas, todas ellas capitales de provincia y con una población entre 100.000 y 300.000 habitantes: Vitoria-Gasteiz, Burgos, Pamplona, Valladolid, Lleida y Logroño. El primer paso de la metodología consiste en identificar el límite a través de su representación cartográfica. A partir de aquí se estudia qué limita con qué: cuáles son los usos urbanos que se sitúan en el borde y con qué usos no urbanos limitan. De este modo se hacen cuantificables y por lo tanto medibles. Se establecen las relaciones numéricas de estos usos del suelo y sus porcentajes. El recorrido a lo largo del límite confirma que se trata de un espacio multifuncional. Y se identifica el Límite de lo Común, un límite similar en cuanto a usos y tipologías en todas las ciudades estudiadas. La identidad en el límite se genera a partir de una imagen Genérica (el límite de lo común), una imagen Cerrada, una imagen más o menos Rural, una imagen Cultural (la huella del límite histórico) y finalmente a través de una imagen en Degradación. El límite adquiere una entidad espacial llamada Intefase, compuesta por piezas urbanas dispersas a lo largo de una franja que rodea la ciudad. Este espacio adopta usos y lógicas de localización propios, lo que le confiere una identidad única. En la segunda parte de la tesis se categorizan las diferentes tipologías del límite, el límite según Barreras, según las relaciones campo-ciudad y según aspectos visuales. Los datos confirman que la ciudad media española muestra un aspecto de ciudad dispersa, en diferentes grados de desarrollo; es una ciudad sin barreras que sin embargo se muestra cerrada hacia el campo. ABSTRACT The urban-rural relationship is currently evolving; the in-between boundary is finally been removed. The contemporary city sprawls over the countryside, and the boundary of the traditional city, the urban-rural divide, fades away. Discontinuity between the city and the countryside does not happen in a defined pattern (either by an abrupt or a gradient boundary) but by a malfunctioning rural-urban fringe fragmented and that also does not allow a clear identification landscape, creating problems of efficiency and urban identity. This research focuses on mapping our medium cities boundary, in order to identify whether it exists and how it occurs. The case studies are six medium size Spanish cities with a population between 100.000 and 300.000: Vitoria-Gasteiz, Burgos, Pamplona, Valladolid, Lleida and Logroño. Tracking the boundaries confirms that these are multifunctional spaces. This research defines a new concept called the Common Boundary, that involves similar uses and types in all the boundaries of the case studies. The boundary identity is built up with a Generic image (the common boundary), a closed image, a rural image, a cultural image (the imprint of the historic boundary) and finally with a degradation image. This boundary acquires a spatial entity called Intefase composed of sprawl urban pieces along a rural-urban fringe surrounding the city. New uses and different logical location appear in this fringe, therefore it gives it the uniqueness of the fringe. Finally this research categorizes the different boundary types: the boundary as barriers, the boundary as rural-urban relations and as visual aspects. Examined data confirms that the medium size Spanish city suffers from urban sprawl at different stages. Moreover a city without barriers and closed to the countryside is shown.
Resumo:
Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.
Resumo:
La lucha contra la pobreza y la desigualdad ocupa la lista de prioridades y tareas pendientes, en la mayoría de los países de América Latina; es un hecho, sustentado en estadísticas e informes de importantes organizaciones a nivel mundial (que se citan más adelante), que una gran parte de la población enfrenta dificultades y barreras que impiden el pleno disfrute de beneficios, derechos y libertades y que las desigualdades persisten en varios campos, afectando mayoritariamente a un grupo de población: las mujeres. Esa realidad implica que los proyectos, políticas, estrategias y acciones enfocadas en la promoción del desarrollo humano deben actuar con plena consciencia sobre esas desigualdades y procurar intervenciones más efectivas, que atiendan las necesidades e intereses diferenciados de hombres y mujeres y generen beneficios bajo criterios de igualdad. Para lograr tal fin, es necesario desvirtuar las intervenciones que asumen como ciertos los roles estereotipados de mujeres y hombres — desconociendo la existencia de relaciones, características, roles y responsabilidades diferenciadas por sexo — y adoptan fórmulas únicas para dar respuesta a problemas comunes, ya que no sólo no disminuyen las brechas de desigualdad entre los sexos si no que directa o indirectamente continúan perpetuándolas. ¿Por qué analizar el papel de la mujer en el desarrollo humano? Intentar entender la relación entre mujer y desarrollo humano es internarse en un complejo sistema de factores, causas y efectos que van desde intereses económicos y políticos hasta mitos y creencias socialmente aceptadas y reforzadas generacionalmente. A pesar de los avances logrados en los últimos años, aún hoy en muchos lugares del mundo siguen existiendo mujeres que se enfrentan a los estereotipos de género, las barreras sociales y culturales y una serie de situaciones desiguales que las hacen más propensas a la pobreza, más vulnerables y peor posicionadas en varios aspectos del desarrollo. Esa vulnerabilidad y empobrecimiento de las mujeres, también llamada feminización de la pobreza, es generalmente ocasionada por múltiple factores, entre los cuáles (FAO, 1998) cita: “Acceso limitado a los recursos de producción, a los servicios sociales, y comerciales; desempleo, subempleo y/o desigualdad en la remuneración; exclusión o limitada participación en los procesos de toma de decisiones y formulación de políticas; legislación desfavorable o discriminatoria…existencia y reproducción de la discriminación en el seno del hogar; creciente migración masculina y consecuente abandono de las mujeres e hijos...” adicionalmente los estereotipos, el sistema patriarcal y la privación de la mujer de sus derechos por medios violentos y de coacción le hacen aún más difícil avanzar hacia su desarrollo humano. Mantener, aproximadamente, al 50% de la población mundial en condiciones de desigualdad implica impactos negativos, no solo para las mujeres, sino para la eficiencia, el crecimiento económico y el desarrollo de la sociedad en su conjunto, que se dan por hechos como: La correlación entre los bajos índices de desarrollo de las mujeres y los menores niveles de desarrollo alcanzados por sus hijos e hijas que se configuran como un mecanismo de reproducción de la pobreza de una generación a otra. La correlación entre Índice de Desarrollo Humano (IDH) y el Índice de Potenciación de Género (IPG), que según datos del Programa de las Naciones Unidas para el Desarrollo (PNUD) sugieren que la igualdad de género va de la mano de mayores y mejores niveles de desarrollo de la sociedad. La directa relación entre el papel de la mujer y su posibilidad para ejercer sus derechos y el logro de objetivos de desarrollo del milenio, en aspectos como el crecimiento demográfico. La clara contribución de la mujer a la producción, la economía, el cuidado de la fuerza de trabajo y las futuras generaciones y el desarrollo comunitario. “La igualdad de género es parte de la economía inteligente: puede aumentar la eficiencia económica y mejorar otros resultados en materia de desarrollo de tres maneras distintas. En primer lugar, eliminar las barreras que impiden que las mujeres tengan el mismo acceso que los hombres a la educación, a las oportunidades económicas y a los insumos productivos puede dar lugar a aumentos generalizados de la productividad... En segundo lugar, mejorar el estatus absoluto y relativo de las mujeres promueve muchos otros resultados en materia de desarrollo, incluidos los que afectan a sus hijos e hijas. En tercer lugar, equilibrar la balanza —de manera que las mujeres y los hombres gocen de las mismas oportunidades de tener una actividad social y política, tomar decisiones y definir las políticas— probablemente conducirá con el tiempo al establecimiento de instituciones y opciones de política más representativas y más incluyentes, y por tanto a una vía más apropiada hacia el desarrollo. (Banco Mundial, 2012) En congruencia con todo lo anterior este trabajo busca entender la perspectiva de género y su influencia en el desarrollo humano de dos grupos de mujeres ubicadas en el estado de Alagoas en Brasil. Como punto de partida se definieron las siguientes preguntas de investigación: 1) ¿Los grupos analizados enfrentan desigualdades, en el contexto familiar y comunitario, por causa de su sexo? 2) ¿Qué factores están interfiriendo en el ejercicio de los derechos y libertades de las mujeres específicamente en las áreas de tiempo, trabajo, dinero y poder? 3) ¿Cuáles son las interrelaciones entre las áreas anteriormente mencionadas y el desarrollo de las mujeres? 4) ¿La situación de las mujeres y las relaciones de género guardan similitudes en contextos urbanos y rurales? Para lograr una respuesta aproximada a estas preguntas, se realizó un análisis de género utilizando la combinación de algunos aspectos del marco de Marco de Análisis de Género de Harvard y el Marco de Moser y se realizaron comparaciones entre dos grupos de mujeres de dos contextos geográficos diferentes, el rural y el urbano. Considerando la amplitud de las dimensiones de género que podrían ser incluidas, el análisis se realizó en torno a los aspectos de tiempo, trabajo, recursos financieros, participación y poder. La metodología utilizada incluyó siguientes herramientas: 1) Análisis del marco jurídico relativo a género 2) Análisis del contexto específico de cada grupo. 3) Aproximación a las necesidades e intereses de las mujeres 4) Análisis de roles y distribución sexual del trabajo 5) Análisis del acceso y control a los recursos 6) Aproximación al análisis de capacidad de las organizaciones responsables para trabajar con perspectiva de género. Con base en los resultados de estos análisis se aportan algunas recomendaciones para la disminución de esas brechas. 7) Análisis de brechas de género, mecanismos de reproducción e impactos en el desarrollo humano de las mujeres
Resumo:
Esta tesis de doctorado surge de la preocupación por los bajos niveles de calidad en la educación básica y secundaria colombiana, que encuentra en el fracaso escolar uno de los principales desafíos por resolver. A pesar de que el bajo rendimiento sea uno de los tópicos más analizados en la investigación educativa, a nivel internacional, en Colombia son escasos los programas de investigación sobre el tema y mucho más raras las políticas gubernamentales para disminuirlo. En el contexto estudiado, el fracaso escolar no se encuentra asociado a estudiantes con barreras de aprendizaje ni a situaciones de carencia extrema, tampoco a sistemas familiares o escolares disfuncionales. A pesar de contar con las condiciones básicas para el éxito, los estudiantes no alcanzan sus objetivos académicos, entrando en un ciclo de repetición que antecede al abandono escolar temprano y definitivo. Como objeto de investigación, el fracaso escolar es un fenómeno de alta complejidad ya que es el resultado de la interacción simultanea de un número indeterminado de variables históricas, culturales, sociales, económicas, institucionales e individuales que se afectan recíprocamente; de tal manera que, al cambiar el ángulo de observación, las variables que eran consideradas como el origen de un proceso, se convierten en su consecuencia, generando efectos de causalidad circular y grandes zonas de incertidumbre que impiden la formulación de teorías explicativas de carácter general. Una prueba de esto, son las aproximaciones fragmentarias y contradictorias de las disciplinas encargadas de su estudio. De ahí la necesidad de proponer investigaciones que vayan más allá de la simple descripción del fenómeno, para concentrarse en la formulación de modelos más sensibles a las relaciones causales que se establecen entre un grupo determinado de variables...