1000 resultados para TESIS DE MAESTRIA EN CONSTRUCCIONES


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción. La obesidad puede definirse como una enfermedad metabólica crónica de origen multifactorial, lo que provoca trastornos o problemas físicos y psicológicos a la persona, con patologías asociadas que limitan la esperanza de vida y deterioran la calidad de la misma, siendo determinante para sus áreas sociales y laborales. Este trastorno metabólico crónico se caracteriza por una acumulación excesiva de energía en el cuerpo en forma de grasa, lo que lleva a un aumento de peso con respecto al valor esperado por sexo, edad y altura. La gestión y el tratamiento de la obesidad tienen objetivos más amplios que la pérdida de peso e incluyen la reducción del riesgo y la mejora de la salud. Estos pueden ser alcanzados por la pérdida modesta de peso (es decir, 10.5% del peso corporal inicial), la mejora del contenido nutricional de la dieta y un modesto incremento en la actividad física y condición física. La dieta es uno de los métodos más populares para perder peso corporal. El ejercicio es otra alternativa para perder peso corporal. El aumento de ejercicio provoca un desequilibrio cuando se mantiene la ingesta calórica. También tiene ventajas, como la mejora del tono muscular, la capacidad cardiovascular, fuerza y flexibilidad, aumenta el metabolismo basal y mejora el sistema inmunológico. Objetivos. El objetivo de esta tesis es contribuir en un estudio de intervención para aclarar la evolución del peso corporal durante una intervención de dieta y ejercicio. Para ello, se evaluaron los efectos de la edad, sexo, índice de masa corporal inicial y el tipo de tratamiento en las tendencias de pérdida de peso. Otro objetivo de la tesis era crear un modelo de regresión lineal múltiple capaz de predecir la pérdida de peso corporal después del periodo de intervención. Y, por último, determinar el efecto sobre la composición corporal (peso corporal, índice de masa corporal, la masa grasa, y la masa libre de grasa) de las diferentes intervenciones basadas en ejercicios (fuerza, resistencia, resistencia combinada con fuerza, y las recomendaciones de actividad física (grupo control)) en combinación con dieta de adultos con sobrepeso y obesidad, después de la intervención, así como los cambios de la composición corporal 3 años más tarde. Diseño de la investigación. Los datos empleados en el análisis de esta tesis son parte del proyecto “Programas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). El proyecto PRONAF es un estudio clínico sobre programas de nutrición y actividad física para el sobrepeso y la obesidad, desarrollado en España durante varios años de intervención. Fue diseñado, en parte, para comparar diferentes tipos de intervención, con el objetivo de evaluar su impacto en las dinámicas de pérdida de peso, en personas con sobrepeso y obesidad. Como diseño experimental, el estudio se basó en una restricción calórica, a la que, en algunos casos, se le añadió un protocolo de entrenamiento (fuerza, resistencia, o combinado, en igualdad de volumen e intensidad). Las principales variables para la investigación que comprende esta tesis fueron: el peso corporal y la composición corporal (masa grasa y masa libre de grasa). Conclusiones. En esta tesis, para los programas de pérdida de peso en personas con sobrepeso y obesidad con un 25-30% de la restricción calórica, el peso corporal se redujo significativamente en ambos sexos, sin tener en cuenta la edad y el tipo de tratamiento seguido. Según los resultados del estudio, la pérdida de peso realizada por un individuo (hombre o mujer) durante los seis meses puede ser representada por cualquiera de las cinco funciones (lineal, potencial, exponencial, logarítmica y cuadrática) en ambos sexos, siendo la cuadrática la que tiende a representarlo mejor. Además, se puede concluir que la pérdida de peso corporal se ve afectada por el índice de masa corporal inicial y el sexo, siendo mayor para las personas obesas que para las de sobrepeso, que muestran diferencias entre sexos sólo en la condición de sobrepeso. Además, es posible calcular el peso corporal final de cualquier participante involucrado en una intervención utilizando la metodología del proyecto PRONAF sólo conociendo sus variables iniciales de composición corporal. Además, los cuatro tipos de tratamientos tuvieron resultados similares en cambios en la composición corporal al final del período de intervención, con la única excepción de la masa libre de grasa, siendo los grupos de entrenamiento los que la mantuvieron durante la restricción calórica. Por otro lado, sólo el grupo combinado logra mantener la reducción de la masa grasa (%) 3 años después del final de la intervención. ABSTRACT Introduction. Obesity can be defined as a chronic metabolic disease from a multifactorial origin, which leads to physical and psychological impacts to the person, with associated pathologies that limit the life expectancy and deteriorate the quality of it, being determinant for the social and labor areas of the person. This chronic metabolic disorder is characterized by an excessive accumulation of energy in the body as fat, leading to increased weight relative to the value expected by sex, age and height. The management and treatment of obesity have wider objectives than weight loss alone and include risk reduction and health improvement. These may be achieved by modest weight loss (i.e. 5–10% of initial body weight), improved nutritional content of the diet and modest increases in physical activity and fitness. Weight loss through diet is one of the most popular approaches to lose body weight. Exercise is another alternative to lose body weight. The increase of exercise causes an imbalance when the caloric intake is maintained. It also has advantages such as improved muscle tone, cardiovascular fitness, strength and flexibility, increases the basal metabolism and improves immune system. Objectives. The aim of this thesis is to contribute with an interventional study to clarify the evolution of the body weight during a diet and exercise intervention. For this, the effects of age, sex, initial body mass index and type of treatment on weight loss tendencies were evaluated. Another objective of the thesis was to create a multiple linear regression model able to predict the body weight loss after the intervention period. And, finally, to determine the effect upon body composition (body weight, body mass index, fat mass, and fat-free mass of different exercise-based interventions (strength, endurance, combined endurance and strength, and physical activity recommendations group (control group)) combined with diet in overweight and obese adults, after intervention as well as body composition changes 3 years later. Research Design. The data used in the analysis of this thesis are part of the project "Programs of Nutrition and Physical Activity for the treatment of obesity" (PRONAF). The PRONAF project is a clinical trial program about nutrition and physical activity for overweight and obesity, developed in Spain for several years of intervention. It was designed, in part, to compare different types of intervention, in order to assess their impact on the dynamics of weight loss in overweight and obese people. As experimental design, the study was based on caloric restriction, which, in some cases, added a training protocol (strength, endurance, or combined in equal volume and intensity). The main research variables comprising this thesis were: body weight and body composition outcomes (fat mass and fat-free mass). Conclusions. In this thesis, for weight loss programs in overweight and obese people with 25-30% of caloric restriction, the body weight was significantly decreased in both sexes, regardless the age and type of followed treatment. According to the results of the study, the weight loss performed by an individual (male or female) during six months can be represented by any of the five functions (linear, power law, exponential, logarithmic and quadratic) in both sexes, being the quadratic one which tends to represent it better. In addition, it can be concluded that the body weight loss is affected by the initial body mass index and sex condition, being greater for the obese people than for the overweight one, showing differences between sexes only in the overweight condition. Moreover, it is possible to calculate the final body weight of any participant engaged in an intervention using the PRONAF Project methodology only knowing their initial body composition variables. Furthermore, the four types of treatments had similar results on body composition changes at the end of the intervention period, with the only exception of fat-free mass, being the training groups the ones that maintained it during the caloric restriction. On the other hand, only the combined group achieved to maintain the fat mass (%) reduced 3 years after the end of the intervention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis se centra en el estudio de los fenómenos de transporte de los isótopos de hidrógeno, y más concretamente del tritio, en materiales de interés para los reactores de fusión nuclear. Los futuros reactores de fusión nuclear necesitarán una Planta de Tritio, con una envoltura regeneradora (breeding blanket) y unos sistemas auxiliares claves para su diseño. Por lo tanto su desarrollo y cualificación son cruciales para demostrar que los reactores de fusión son una opción viable como futura fuente de energía. Se han resaltado los diferentes retos de la difusión y retención de estas especies ligeras para cada sistema de la Planta de Tritio, y se han identificado las necesidades experimentales y paramétricas para abordar las simulaciones de difusión, como factores de transporte como la difusividad, absorción/desorción, solubilidad y atrapamiento. Se han estudiado los fenómenos de transporte y parámetros del T en el metal líquido LiPb, componente del breeding blanket tanto para una planta de fusión magnética como inercial. Para ello se han utilizado dos experimentos con características diversas, uno de ellos se ha llevado a cabo en un reactor de alto flujo, y por lo tanto, en condiciones de irradiación, y el otro sin irradiación. Los métodos de simulación numérica aplicados se han adaptado a los experimentos para las mediciones y para estudiar el régimen de transporte. En el estudio de estos experimentos se ha obtenido un valor para algunos de los parámetros claves en el transporte y gestión del tritio en el reactor. Finalmente se realiza un cálculo de la acumulación y difusión de tritio en una primera pared de tungsteno para un reactor de fusión inercial. En concreto para el proyecto de fusión por láser europeo, HiPER (para sus fases 4a y 4b). Se ha estudiado: la implantación de los isótopos de H y He en la pared de W tras una reacción de fusión por iluminación directa con un láser de 48MJ; el efecto en el transporte de T de los picos de temperatura en el W debido a la frecuencia de los eventos de fusión; el régimen de transporte en la primera pared. Se han identificado la naturaleza de las trampas más importantes para el T y se ha propuesto un modelo avanzado para la difusión con trampas. ABSTRACT The present thesis focuses into study the transport phenomenons of hydrogen isotopes, more specifically tritium, in materials of interest for nuclear fusion reactors. The future nuclear reactors will be provided of a Tritium Plant, with its breeding blanket and its auxiliary systems, all of them essential components for the plant. Therefore a reliable development and coalification are key issues to prove the viability of the nuclear fusion reactors as an energy source. The currently challenges for the diffusion and accumulation of these light species for each system of the TP has been studied. Experimental and theoretical needs have been identified and analyzed, specially from the viewpoint of the parameters. To achieve reliable simulations of tritium transport, parameters as diffusivity, absorption/desorption, solubility and trapping must be reliables. Transport phenomenon and parameters of T in liquid metal have been studied. Lead lithium is a key component of the breeding blanket, either in magnetic or inertial fusion confinement. Having this aim in mind, two experiments with different characteristics have been used; one of them has been realized in a high flux reactor, and hence, under irradiation conditions. The other one has been realized without radiation. The mathematical methods for the simulation have been adapted to the experiments, for the measures and also to study the transport behavior. A value for some key parameters for tritium management has been obtained in these studies. Finally, tritium accumulation and diffusion in a W first wall of an inertial nuclear fusion reactor has been assessed. A diffusion model of the implanted H, D, T and He species for the two initial phases of the proposed European laser fusion Project HiPER (namely, phase 4a and phase 4b) has been implemented using Tritium Migration Analysis Program, TMAP7. The effect of the prompt and working temperatures and the operational pulsing modes on the diffusion are studied. The nature of tritium traps in W and their performance has been analyzed and discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La evolución de los roles de la Administración y empresas en la prestación de servicios públicos, así como las crecientes restricciones presupuestarias para financiarlos, están propiciando una cada vez mayor utilización del sistema concesional para la financiación y gestión de carreteras. Ante esta situación, cabe cuestionarse si la regulación de las prestaciones a obtener se está introduciendo de forma adecuada en los contratos. Uno de los aspectos más relevantes en este sentido es el relacionado con la seguridad de la infraestructura, sobre el cual la empresa concesionaria tiene capacidad de actuación pero, en un sentido económico estricto, pocos incentivos para mejorarla. Todo ello a pesar de los elevados costes sociales derivados de la accidentalidad. Esta tesis analiza la idoneidad de los indicadores e incentivos de seguridad vial que se vienen aplicando en concesiones de carreteras, encontrándose una gran heterogeneidad e incluso incorrecciones técnicas en su formulación. Además se pone de manifiesto la poca vinculación que tienen con la estructura de costes y beneficios de las actuaciones de mejora de seguridad vial, por lo que su introducción en los contratos resulta anodina. Con el objeto de superar esta situación, en esta tesis se analizan en profundidad los aspectos que intervienen en la formulación de indicadores e incentivos de seguridad vial. De este análisis se deduce la ecuación que liga, por tipología de carretera, el beneficio social derivado del nivel de seguridad de la carretera y el coste para alcanzarlo. A través de esta ecuación se determina el nivel de seguridad óptimo desde el punto de vista económico‐social. La investigación continúa extrapolando métodos de la teoría microeconómica de incentivos al campo de las concesiones de carreteras, a fin de determinar la formulación del incentivo de seguridad vial teóricamente óptimo. Asimismo, la tesis toma en consideración la experiencia en la aplicación práctica de incentivos en concesiones vigentes, realizándose una propuesta para superar las controversias que se están produciendo actualmente en España. Además, se ha simulado la aplicación de la formulación propuesta a diversas concesiones con un doble objetivo: verificar la viabilidad económica de su aplicación y corroborar en qué medida se adecua mejor al óptimo económico‐social. Como resultado, se proponen un indicador y un incentivo concretos que inducen a las concesionarias a orientar su gestión hacia la consecución del nivel de seguridad vial óptimo desde el punto de vista económico‐social, todo ello dentro de un marco de viabilidad presupuestaria. Changes in the roles of Government and the Private Sector in the provision of public services along with the budget constraints to finance them are resulting in an increasing use of the concession system for financing and managing roads. Taking this into account, the question is whether the regulation of quality criteria is being properly introduced in the contracts or not. One of the most important aspects at this respect is the road safety. On the one hand, concessionaires are able to manage this aspect up to a point. On the other hand, from an strict economic point of view, they have little incentive to improve it, despite the high social costs of accidents. This thesis has analyzed the suitability of indicators and incentives usually introduced in road concession contracts, finding high heterogeneity, and even technical inaccuracies on their formulation. It has also been found the lack of connection between these incentives and the costs of measures to improve road safety, therefore they are not expected to fulfil their purpose. In order to overcome this situation, this thesis firstly analyzes in depth the issues involved in the development of road safety indicators and incentives. This analysis yields the equation which links the social benefit derived from the level of road safety and the cost to achieve it. In its turn, through this equation it is possible to meet the optimal road safety level from the socio‐economic point of view. Secondly, this thesis extrapolates microeconomic methods to the field of highway concessions, with the aim of determining the formulation of the optimal road safety incentive. Furthermore, the thesis takes into account the experience in the practical application of incentives on existing concessions, performing a proposal to settle the disputes between concessionaires and the Public Administrations. Finally, the thesis simulates the implementation of the proposed indicator and incentive to real concessions with the aim of verifying the economic feasibility of their application and confirming how they match the socio‐economic optimum. As a result, this thesis proposes an indicator and incentive that induce companies to drive the management of the concession towards achieving the optimal road safety level, all within a framework of the budgetary feasibility.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El deporte como fenómeno social y cultural ha sido ampliamente reivindicado por sus virtudes integradoras. A la actividad físico-deportiva, ya sea de competición o recreativa, se le han atribuido unos valores integradores que permitirían un ascenso de estatus social, argumento justificado en parte por los éxitos de jugadores de origen inmigrante en el deporte profesional. Por otro lado, el tejido asociativo, y especialmente el generado por la comunidad migrante, también utiliza la organización deportiva como forma de solidaridad y reivindicación identitaria. El objetivo de la tesis es analizar la formulación de los programas deportivos formulados a nivel político y asociativo en los barrios con mayor presencia de jóvenes inmigrantes y/o de segunda generación de París y Madrid destinadas a su integración sociocultural y analizar la implementación de dichas iniciativas. El método de recogida de datos consistió en la realización de 72 entrevistas en profundidad a varios niveles de responsabilidad política y de tipología de entidades sociales, así como el análisis documental de fuentes institucionales y asociativas. Los resultados muestran diferencias entre el planteamiento y la ejecución de las iniciativas condicionadas por el modelo de integración de cada contexto –oposición del modelo republicano en París al deporte comunitarista– y por la situación de crisis económica –fragilidad de los programas por el recorte presupuestario y subvenciones en el contexto madrileño–. Las conclusiones de esta tesis buscan profundizar en la verdadera contribución del deporte a la integración social y cultural de los jóvenes de origen inmigrante, y por extensión, a las sociedades culturalmente plurales. RÉSUMÉ Le sport en tant que phénomène social et culturel a été largement revendiqué pour ses vertus intégratrices. À l'activité physique et sportive, en forme de compétition où de loisirs, ont a attribué certaines valeurs intégratrices qui permettent une ascension de statut social, argument justifié en partie par le succès des joueurs d'origine immigrée dans le sport professionnel. Par ailleurs, le tissu associatif, et surtout celui engendré par la communauté migrante, a également utilisé l'organisation sportive comme une forme de solidarité et de revendication identitaire. L'objectif de la thèse est d'analyser la formulation des programmes sportifs à niveau politique et associatif dans les quartiers ayant une plus grande présence de jeunes immigrants et / ou deuxième génération de Paris et de Madrid, destinés à leur intégration socioculturelle et d'analyser la mise en oeuvre de ces initiatives. La méthode de collecte de données était de mener 72 entretiens semi-structurés à différents niveaux de responsabilité politique et de typologie des entités sociales, ainsi que l'analyse documentaire des sources officielles et associatives. Les résultats montrent des différences entre l'approche et la mise en oeuvre d'initiatives conditionnées par le modèle d'intégration de chaque contexte –l'opposition du modèle républicain à Paris envers le sport communautariste– et par la situation de crise économique –fragilité des programmes par les compressions budgétaires et les subventions dans le contexte madrilène–. Les conclusions de cette thèse visent à approfondir la véritable contribution du sport à l'intégration sociale et culturelle des jeunes immigrants, et, par extension, des sociétés culturellement plurielles. ABSTRACT Sport as a social and cultural phenomenon has been widely claimed by its integrative virtues. Whether competition or recreational, sport has been claimed for some integrative values that allow a rise in social status justified in part by the success of immigrant origin players in professional sports. On the other hand, associations, and especially those generated by the migrant community, also uses sports organization as a form of solidarity and identity recognition. The aim of the thesis is double: to understand the formulation of sports programs intended for sociocultural integration designed by political and and associative entities in neighborhoods with greater presence of young immigrants and/or second generation of Paris and Madrid and to analyze the implementation of such initiatives. The method of data collection was to conduct 72 in-depth interviews to various levels of political responsibility and typology of social entities and documentary analysis of institutional and associative sources. The results show differences between the approach and implementation of initiatives conditioned by the integration model of each context –an opposition of the republican model in Paris from ethnic sports– and the situation of economic crisis –programs weakness due to budget cuts and subsidies in the Madrid–. The conclusions of this thesis aim to deepen the true contribution of sport to social and cultural integration of young immigrants, and by extension, to culturally plural societies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tecnología de múltiples antenas ha evolucionado para dar soporte a los actuales y futuros sistemas de comunicaciones inalámbricas en su afán por proporcionar la calidad de señal y las altas tasas de transmisión que demandan los nuevos servicios de voz, datos y multimedia. Sin embargo, es fundamental comprender las características espaciales del canal radio, ya que son las características del propio canal lo que limita en gran medida las prestaciones de los sistemas de comunicación actuales. Por ello surge la necesidad de estudiar la estructura espacial del canal de propagación para poder diseñar, evaluar e implementar de forma más eficiente tecnologías multiantena en los actuales y futuros sistemas de comunicación inalámbrica. Las tecnologías multiantena denominadas antenas inteligentes y MIMO han generado un gran interés en el área de comunicaciones inalámbricas, por ejemplo los sistemas de telefonía celular o más recientemente en las redes WLAN (Wireless Local Area Network), principalmente por la mejora que proporcionan en la calidad de las señales y en la tasa de transmisión de datos, respectivamente. Las ventajas de estas tecnologías se fundamentan en el uso de la dimensión espacial para obtener ganancia por diversidad espacial, como ya sucediera con las tecnologías FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access) y CDMA (Code Division Multiplexing Access) para obtener diversidad en las dimensiones de frecuencia, tiempo y código, respectivamente. Esta Tesis se centra en estudiar las características espaciales del canal con sistemas de múltiples antenas mediante la estimación de los perfiles de ángulos de llegada (DoA, Direction-of- Arrival) considerando esquemas de diversidad en espacio, polarización y frecuencia. Como primer paso se realiza una revisión de los sistemas con antenas inteligentes y los sistemas MIMO, describiendo con detalle la base matemática que sustenta las prestaciones ofrecidas por estos sistemas. Posteriormente se aportan distintos estudios sobre la estimación de los perfiles de DoA de canales radio con sistemas multiantena evaluando distintos aspectos de antenas, algoritmos de estimación, esquemas de polarización, campo lejano y campo cercano de las fuentes. Así mismo, se presenta un prototipo de medida MIMO-OFDM-SPAA3D en la banda ISM (Industrial, Scientific and Medical) de 2,45 Ghz, el cual está preparado para caracterizar experimentalmente el rendimiento de los sistemas MIMO, y para caracterizar espacialmente canales de propagación, considerando los esquemas de diversidad espacial, por polarización y frecuencia. Los estudios aportados se describen a continuación. Los sistemas de antenas inteligentes dependen en gran medida de la posición de los usuarios. Estos sistemas están equipados con arrays de antenas, los cuales aportan la diversidad espacial necesaria para obtener una representación espacial fidedigna del canal radio a través de los perfiles de DoA (DoA, Direction-of-Arrival) y por tanto, la posición de las fuentes de señal. Sin embargo, los errores de fabricación de arrays así como ciertos parámetros de señal conlleva un efecto negativo en las prestaciones de estos sistemas. Por ello se plantea un modelo de señal parametrizado que permite estudiar la influencia que tienen estos factores sobre los errores de estimación de DoA, tanto en acimut como en elevación, utilizando los algoritmos de estimación de DOA más conocidos en la literatura. A partir de las curvas de error, se pueden obtener parámetros de diseño para sistemas de localización basados en arrays. En un segundo estudio se evalúan esquemas de diversidad por polarización con los sistemas multiantena para mejorar la estimación de los perfiles de DoA en canales que presentan pérdidas por despolarización. Para ello se desarrolla un modelo de señal en array con sensibilidad de polarización que toma en cuenta el campo electromagnético de ondas planas. Se realizan simulaciones MC del modelo para estudiar el efecto de la orientación de la polarización como el número de polarizaciones usadas en el transmisor como en el receptor sobre la precisión en la estimación de los perfiles de DoA observados en el receptor. Además, se presentan los perfiles DoA obtenidos en escenarios quasiestáticos de interior con un prototipo de medida MIMO 4x4 de banda estrecha en la banda de 2,45 GHz, los cuales muestran gran fidelidad con el escenario real. Para la obtención de los perfiles DoA se propone un método basado en arrays virtuales, validado con los datos de simulación y los datos experimentales. Con relación a la localización 3D de fuentes en campo cercano (zona de Fresnel), se presenta un tercer estudio para obtener con gran exactitud la estructura espacial del canal de propagación en entornos de interior controlados (en cámara anecóica) utilizando arrays virtuales. El estudio analiza la influencia del tamaño del array y el diagrama de radiación en la estimación de los parámetros de localización proponiendo, para ello, un modelo de señal basado en un vector de enfoque de onda esférico (SWSV). Al aumentar el número de antenas del array se consigue reducir el error RMS de estimación y mejorar sustancialmente la representación espacial del canal. La estimación de los parámetros de localización se lleva a cabo con un nuevo método de búsqueda multinivel adaptativo, propuesto con el fin de reducir drásticamente el tiempo de procesado que demandan otros algoritmos multivariable basados en subespacios, como el MUSIC, a costa de incrementar los requisitos de memoria. Las simulaciones del modelo arrojan resultados que son validados con resultados experimentales y comparados con el límite de Cramer Rao en términos del error cuadrático medio. La compensación del diagrama de radiación acerca sustancialmente la exactitud de estimación de la distancia al límite de Cramer Rao. Finalmente, es igual de importante la evaluación teórica como experimental de las prestaciones de los sistemas MIMO-OFDM. Por ello, se presenta el diseño e implementación de un prototipo de medida MIMO-OFDM-SPAA3D autocalibrado con sistema de posicionamiento de antena automático en la banda de 2,45 Ghz con capacidad para evaluar la capacidad de los sistemas MIMO. Además, tiene la capacidad de caracterizar espacialmente canales MIMO, incorporando para ello una etapa de autocalibración para medir la respuesta en frecuencia de los transmisores y receptores de RF, y así poder caracterizar la respuesta de fase del canal con mayor precisión. Este sistema incorpora un posicionador de antena automático 3D (SPAA3D) basado en un scanner con 3 brazos mecánicos sobre los que se desplaza un posicionador de antena de forma independiente, controlado desde un PC. Este posicionador permite obtener una gran cantidad de mediciones del canal en regiones locales, lo cual favorece la caracterización estadística de los parámetros del sistema MIMO. Con este prototipo se realizan varias campañas de medida para evaluar el canal MIMO en términos de capacidad comparando 2 esquemas de polarización y tomando en cuenta la diversidad en frecuencia aportada por la modulación OFDM en distintos escenarios. ABSTRACT Multiple-antennas technologies have been evolved to be the support of the actual and future wireless communication systems in its way to provide the high quality and high data rates required by new data, voice and data services. However, it is important to understand the behavior of the spatial characteristics of the radio channel, since the channel by itself limits the performance of the actual wireless communications systems. This drawback raises the need to understand the spatial structure of the propagation channel in order to design, assess, and develop more efficient multiantenna technologies for the actual and future wireless communications systems. Multiantenna technologies such as ‘Smart Antennas’ and MIMO systems have generated great interest in the field of wireless communications, i.e. cellular communications systems and more recently WLAN (Wireless Local Area Networks), mainly because the higher quality and the high data rate they are able to provide. Their technological benefits are based on the exploitation of the spatial diversity provided by the use of multiple antennas as happened in the past with some multiaccess technologies such as FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access), and CDMA (Code Division Multiplexing Access), which give diversity in the domains of frequency, time and code, respectively. This Thesis is mainly focus to study the spatial channel characteristics using schemes of multiple antennas considering several diversity schemes such as space, polarization, and frequency. The spatial characteristics will be study in terms of the direction-of-arrival profiles viewed at the receiver side of the radio link. The first step is to do a review of the smart antennas and MIMO systems technologies highlighting their advantages and drawbacks from a mathematical point of view. In the second step, a set of studies concerning the spatial characterization of the radio channel through the DoA profiles are addressed. The performance of several DoA estimation methods is assessed considering several aspects regarding antenna array structure, polarization diversity, and far-field and near-field conditions. Most of the results of these studies come from simulations of data models and measurements with real multiantena prototypes. In the same way, having understand the importance of validate the theoretical data models with experimental results, a 2,4 GHz MIMO-OFDM-SPAA2D prototype is presented. This prototype is intended for evaluating MIMO-OFDM capacity in indoor and outdoor scenarios, characterize the spatial structure of radio channels, assess several diversity schemes such as polarization, space, and frequency diversity, among others aspects. The studies reported are briefly described below. As is stated in Chapter two, the determination of user position is a fundamental task to be resolved for the smart antenna systems. As these systems are equipped with antenna arrays, they can provide the enough spatial diversity to accurately draw the spatial characterization of the radio channel through the DoA profiles, and therefore the source location. However, certain real implementation factors related to antenna errors, signals, and receivers will certainly reduce the performance of such direction finding systems. In that sense, a parameterized narrowband signal model is proposed to evaluate the influence of these factors in the location parameter estimation through extensive MC simulations. The results obtained from several DoA algorithms may be useful to extract some parameter design for directing finding systems based on arrays. The second study goes through the importance that polarization schemes can have for estimating far-field DoA profiles in radio channels, particularly for scenarios that may introduce polarization losses. For this purpose, a narrowband signal model with polarization sensibility is developed to conduct an analysis of several polarization schemes at transmitter (TX) and receiver (RX) through extensive MC simulations. In addition, spatial characterization of quasistatic indoor scenarios is also carried out using a 2.45 GHz MIMO prototype equipped with single and dual-polarized antennas. A good agreement between the measured DoA profiles with the propagation scenario is achieved. The theoretical and experimental evaluation of polarization schemes is performed using virtual arrays. In that case, a DoA estimation method is proposed based on adding an phase reference to properly track the DoA, which shows good results. In the third study, the special case of near-field source localization with virtual arrays is addressed. Most of DoA estimation algorithms are focused in far-field source localization where the radiated wavefronts are assume to be planar waves at the receive array. However, when source are located close to the array, the assumption of plane waves is no longer valid as the wavefronts exhibit a spherical behavior along the array. Thus, a faster and effective method of azimuth, elevation angles-of-arrival, and range estimation for near-field sources is proposed. The efficacy of the proposed method is evaluated with simulation and validated with measurements collected from a measurement campaign carried out in a controlled propagation environment, i.e. anechoic chamber. Moreover, the performance of the method is assessed in terms of the RMSE for several array sizes, several source positions, and taking into account the effect of radiation pattern. In general, better results are obtained with larger array and larger source distances. The effect of the antennas is included in the data model leading to more accurate results, particularly for range rather than for angle estimation. Moreover, a new multivariable searching method based on the MUSIC algorithm, called MUSA (multilevel MUSIC-based algorithm), is presented. This method is proposed to estimate the 3D location parameters in a faster way than other multivariable algorithms, such as MUSIC algorithm, at the cost of increasing the memory size. Finally, in the last chapter, a MIMO-OFDM-SPAA3D prototype is presented to experimentally evaluate different MIMO schemes regarding antennas, polarization, and frequency in different indoor and outdoor scenarios. The prototype has been developed on a Software-Defined Radio (SDR) platform. It allows taking measurements where future wireless systems will be developed. The novelty of this prototype is concerning the following 2 subsystems. The first one is the tridimensional (3D) antenna positioning system (SPAA3D) based on three linear scanners which is developed for making automatic testing possible reducing errors of the antenna array positioning. A set of software has been developed for research works such as MIMO channel characterization, MIMO capacity, OFDM synchronization, and so on. The second subsystem is the RF autocalibration module at the TX and RX. This subsystem allows to properly tracking the spatial structure of indoor and outdoor channels in terms of DoA profiles. Some results are draw regarding performance of MIMO-OFDM systems with different polarization schemes and different propagation environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Anillo Verde metropolitano, definido por el Plan General de Ordenación Urbana del Área Metropolitana de Madrid en 1963 siguiendo los modelos planteados por la cultura urbanística internacional, como armadura de la estructura urbana del AMM, espacio protagonista dentro del sistema de espacios libres, lugar de uso público destinado al recreo y contacto con la naturaleza de la población madrileña, se convierte en realidad en una reserva de suelo que va entrando en juego motivado por las alianzas entre el poder institucional y la clase social dominante actuando al margen del planeamiento, poniendo en evidencia la escasez de recursos legales y culturales disponibles para la salvaguarda de los intereses comunes y, donde los condicionantes geográficos y naturales del territorio madrileño han influido decisivamente en la especialización funcional y espacial del Área Metropolitana de Madrid. Así pues considerando esta idea como HIPÓTESIS, el objetivo de la TESIS sería demostrarla, para lo cual se hace necesario primero, acotar espacial y temporalmente el objeto de estudio, es decir, del Anillo Verde metropolitano1, segundo, contextualizar histórica y disciplinarmente los presupuestos teóricos que conformaban la idea del Anillo Verde, tercero, reconocer, localizar y documentar las piezas que han ido materializando la ocupación urbana del Anillo Verde, clasificándolas según parámetros temporales, funcionales, urbanísticos y, formales, lo que permite analizar la geografía, uso, instrumentación y forma de su transformación a escala general metropolitana y, cuarto, profundizar a modo de comprobación a escala municipal y urbana en dos escenarios representativos del conjunto metropolitano: el municipio de Pozuelo de Alarcón y el distrito de Hortaleza-Barajas. El contenido del documento se divide en tres bloques, el bloque I, se centra en las bases teóricas, el bloque II sitúa el hilo argumental de la tesis a escala metropolitana y el bloque III comprueba el fenómeno a escala municipal y urbana. De esta forma, se comienza por la comprensión del significado del concepto del Anillo Verde, que va más allá de la dimensión instrumental asignada de límite y contención urbana frente al crecimiento de la ciudad industrial de principios del siglo XX, basada en la descentralización de la ciudad tradicional, para adquirir un significado más complejo, como gran espacio de reserva y salvaguarda de valores naturales y culturales que se expresaban en su territorio y que permitirían alcanzar el equilibrio entre la ciudad y sus habitantes, es decir, entre el hombre y el espacio que habita. Se hace un recorrido por las principales corrientes urbanísticas que se van nutriendo de distintas disciplinas (economía, sociología, geografía, biología, ecología) para plantear teorías que permitieran materializar un nuevo orden urbano según principios de equidad social, económica y ambiental, en una secuencia donde Europa y Estados Unidos realizaban un constante intercambio -el movimiento de la Ciudad Jardín o el Regionalismo, que dieron paso a propuestas como el Greater London o el Gran Berlín, donde la figura del Anillo Verde tenía un papel protagonista, y del que también participaría nuestro país y la ciudad de Madrid, con modelos regionales como el Plan Besteiro y urbanos como el Plan Bidagor, antecedentes directos del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963 que pone en marcha la ordenación del crecimiento metropolitano de Madrid. El hilo argumental de la tesis se organiza en una doble aproximación: un acercamiento a escala metropolitana a partir del reconocimiento del modelo de ciudad definido en los distintos planes generales que acompañaron el desarrollo metropolitano (municipio de Madrid y de los siete términos municipales que rodeaban a este y que tenían suelo destinado a Anillo Verde), haciendo referencia además a las relaciones con el planeamiento regional, concretando en una escala de aproximación municipal que avanza hasta la interpretación urbana detallada. El primer acercamiento tiene lugar en el bloque II y se organiza en tres capítulos. El capítulo 4 se dedica al punto obligado de partida de la geografía local, describiendo las características biofísicas de los terrenos que formaban parte del Anillo Verde, que han marcado históricamente la forma de aprovechamiento del territorio, desde las extensiones de bosques mediterráneos al norte y al oeste continuación del Monte del Pardo, a los distintos tipos de cultivo que se adaptaban al sustrato geológico y la forma del terreno (de las suaves ondulaciones de sedimentos arcósicos al norte a las extensas plataformas arenosas y yesíferas del sur), además de las zonas de huertos aprovechando las depresiones y los cursos de agua (arroyo del Monte Carmelo, arroyo de Valdebebas, arroyo del Quinto, arroyo del Santo, arroyo Butarque, arroyo Meaques y arroyo Pozuelo). Una vez reconocida la realidad física, el capítulo 5, avanza en la descripción de los distintos modelos de ciudad propuestos desde el planeamiento urbanístico, en sus distintas escalas, la regional y la municipal, como respuesta a la coyuntura social, económica y política que ha caracterizado el proceso de ocupación del Anillo Verde al compás de la construcción del AMM. Se han reunido las propuestas de planeamiento municipal de los distintos municipios que disponían de terreno calificado como Anillo Verde: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte y Pozuelo de Alarcón. Además se han incorporado las distintas propuestas de ordenación territorial que han servido de referencia al planeamiento municipal, en todas sus versiones, desde las sectoriales, de mayor éxito y apoyo institucional, a los distintos intentos de ordenación integral, de mayor complejidad pero de menor calado, precisamente por la dificultad de consenso entre la ordenación física y el desarrollo económico, entre los intereses privados y el beneficio público. El primer horizonte, comienza con la formulación del Plan General de Ordenación Urbana del Área Metropolitana de Madrid de 1963, su desarrollo y la puesta en marcha de los primeros planes municipales en la década de los años setenta, donde se comprueba la necesidad de un marco regional que “ordene” el territorio de forma integral y sirva de referencia a las actuaciones sectoriales que habían marcado el primer desarrollo metropolitano. El segundo, se sitúa dos décadas más tarde con la aprobación del Plan General de Ordenación Urbana de Madrid de 1985 y el conjunto de planes municipales de los términos limítrofes, que siguen su filosofía de austeridad en cuanto a crecimiento territorial. El tercero se inicia en 1997 con la siguiente generación de planes de corte neoliberal que imponen un modelo territorial basado en las grandes operaciones metropolitanas de centralidad, infraestructuras y equipamiento, que consumen de forma indiscriminada la totalidad del territorio madrileño. Será en el último capítulo del segundo bloque (capítulo 6) donde se represente gráficamente a escala metropolitana y se analicen las 229 piezas que han ido colmatando el espacio destinado a Anillo Verde, según los parámetros de estudio, en base a las cuales se plantean las primeras conclusiones generales de la tesis, poniendo de manifiesto que las alianzas entre los agentes soberanos en la construcción de la ciudad y su entorno han trasgredido sucesivamente las determinaciones del Planeamiento en su definición de modelo de ciudad y territorio, acusando la carencia de recursos instrumentales y jurídicos que alentaron el proceso de su desmantelamiento, y revelando la influencia de los condicionantes geográficos y naturales en la especialización funcional y segregación social en el conjunto del Área Metropolitana de Madrid. Se remata el discurso metropolitano con una batería de conclusiones que interpretan el fenómeno de ocupación del anillo de verdor metropolitano confirmando las hipótesis iniciales, reconociendo los valores medioambientales y culturales trasgredidos, sus diversos actores, las numerosas operaciones urbanísticas desarrolladas con distintos usos y envergadura, así como los instrumentos de planeamiento utilizados, en base a las cuales se materializa la construcción del AMM según un modelo extendido (spread), dibujando una mancha de aceite (o grase-spots según Geddes) que precisamente había querido evitarse desde el planeamiento urbanístico con la definición de un Anillo Verde, espacio inmune a la edificación, que se aleja de su papel estructurante (equilibrador entre la ciudad y sus habitantes) para convertirse en armadura de la estructura comunicativa, que una vez consolidada se convierte en la mejor aliada de la máquina inmobiliaria. El último paso, se desarrolla en el bloque III que se divide en los capítulo 7,8 y 9 y supone la comprobación de lo descrito en el conjunto de escala metropolitana, en dos aspectos fundamentales, la falta de consideración por los valores culturales y medioambientales que han modelado el territorio, imprimiéndole un carácter singular y específico y, la estructura del dominio del suelo, donde se reconoce de forma precisa el grupo social y los agentes encargados en cada momento de comercializar los suelos del anillo, que bajo el paraguas de la urgencia social y el engañoso beneficio popular, obtienen importantes beneficios económicos. Con esa intención, se da un salto hacia la escala municipal y urbana, seleccionando dos escenarios de estudio, el municipio de Pozuelo de Alarcón, que representa la materialización del crecimiento suburbano de la élite madrileña ocupando las zonas de mayor valor ecológico del anillo, y el distrito de Hortaleza-Barajas que ofrece su territorio a las grandes operaciones metropolitanas, apoyándose en el eje de actividad marcado por la conexión Madrid-Barcelona y el sistema aeroportuario de escala global, ambos situados al norte de la línea de borde entre la Sierra y la Mancha, ocupando por tanto los lugares más valiosos de la geografía madrileña (estructura funcional anticipada por Bidagor en 1946 en su modelo de ciudad adaptada al territorio madrileño) Una vez descrito este proceso trasgresor de límites, de normas, de conductas, y desde una perspectiva del fenómeno suficientemente documentada, en el capítulo 10, se realiza una reflexión sobre la incidencia real de la propuesta urbanística del Anillo Verde en la construcción del AMM, de la misma forma que se sugieren nuevos roles al planeamiento en un formato intencionado de largo recorrido en oposición a lo inmediato y circunstancial, que permita hacer una nueva lectura de los presupuestos teóricos que conformaban la idea del Anillo Verde, espacio articulador (medioambiental, social y cultural) del territorio madrileño. ABSTRACT The Metropolitan Greenbelt was defined by the 1963 Master Plan for the Madrid Metropolitan Area (MMA), following established international models of urban development, as the structural framework of the MMA, the principal open space within its network of open spaces and a public area of recreation and contact with nature for the residents of Madrid. In reality, however, it ha become a reserve of land in which various alliances between the institutional authorities and the dominant social class have been operating on the margin of the original plan, exposing a scarcity of legal and cultural resources for the safeguarding of common interests, and in which the geographical and natural characteristics of the territory itself have come to play an influential role in the functional specialization and spatial segregation of the MMA. With that idea as its HYPOTHESIS, the aim of this THESIS is to demonstrate its reality. The first step in this is to delineate, temporally and spatially, the object of study; i.e. the Metropolitan Greenbelt2. The second is to contextualize historically and disciplinarily those theoretical ideas which conform to the greenbelt concept. The third is to acknowledge, locate and document the elements which have characterized the urban occupation of the Greenbelt and classify these according to the parameters of time, function, urban development and form, which in turn would enable the geography, use, instrumentation and form of its transformation to be analysed on a general metropolitan scale. The fourth step, as a method of verification, is an in-depth analysis of two representative settings within the metropolitan network: the municipality of Pozuelo de Alarcón and the Hortaleza-Barajas district. The content of the document is divided into three parts. Part I focuses on the study’s theoretical foundations, Part II establishes a line of argument at the metropolitan level and Part III examines the phenomenon from a municipal and urban perspective. The thesis, then, begins with a study of the greenbelt concept itself and its meaning, which is far more complex than the accepted instrumental dimension of limiting and containing urbanization in response to the growth of the industrial city of the early 20th century, and which is based on a decentralization of the traditional city. This wider purpose is the setting aside of a large reserved space to safeguard the natural and cultural values of the region and thereby achieve a balance between the city and its residents; that is to say, between man and the space he inhabits. The principal currents of thought in urban planning will then be examined. These have drawn upon a variety of disciplines (economics, sociology, geography, biology, ecology) to develop theories for establishing a new urban order according to the principles of social, economic and environmental equity, and have involved a constant interchange between Europe and the United States. Thus, the City Garden and Regionalist movements would clear the way for proposals such as Greater London and Great Berlin, Chicago and Washington, in which the greenbelt would play a fundamental role. The participation of our own country and the city of Madrid is also discussed, through regional models such as the Besteiro Plan and urban ones like the Bidagor Plan, direct forerunners of 1963’s General Organizational Plan for the Madrid Metropolitan Area, which would set into motion the organization of Madrid’s metropolitan growth. The line of argument followed in this thesis is two-fold: first, an examination of metropolitan development in keeping with the city model as defined in the various General Plans for the development of both the municipality of Madrid and the seven surrounding municipalities which have land designated for its Greenbelt; and second, an examination of this growth in relation to Regional Planning measures, is detailed on a smaller scale (municipal and district), where the conditioning factors affecting the land property structure and the network of biophysical units may be analysed in depth. The first of these is dealt with in Part II and organized into three chapters (4, 5 and 6). Chapter 4 is dedicated to the obligatory starting point of the geographical setting itself. The biophysical characteristics of the territories set aside for the Greenbelt, and which historically have played a role in the area’s exploitation, are described here. These range from expanses of Mediterranean woodland to the north and west of Monte del Pardo to the various types of farmland that have been adapted to the geological substratum and the contours of the terrain (gentle undulations of arkosic sediment in the north, and wide sandy and gypsiferous tableland in the south), as well as orchards planted in low valleys and along watercourses (the creeks of Monte Carmelo, Valdebebas, Quinto, Santo, Butarque, Meaques and Pozuelo). Once this physical reality ha been detailed, in Chapter 5 will examine the various city models proposed by urban planners, both regionally and municipally, in response to the confluence of social, economic and political interests that have characterized the process of occupation in the Greenbelt area during the construction of the MMA. Municipal planning proposals will be collected and examined for the various municipalities which have land designated for the Greenbelt: Madrid, Coslada, Getafe, Leganés, Alcorcón, Boadilla del Monte and Pozuelo de Alarcón. Furthermore, the various territorial organization proposals which have served as references for municipal planning will also be addressed here, in all of their versions –from the sectorial, which have met with more success and institutional approval, to the many attempts at integration, which have been more complex but less influential, precisely for the difficulty of reconciling physical organization with economic development, and private interest with public benefit. The first period in this process was the development of the General Plan of 1963, followed by the first municipal development plans of the 1970s, in which the need for a regional framework that “organized” the territory in an integral fashion was defined. This would serve as a reference for the sectorial actions that marked the metropolitan area’s initial development. The second came two decades later with the approval of the General Plan of 1985, and the network of municipal plans for the surrounding communities, which followed the same philosophy of austerity with regard to territorial growth. The third would begin to take form in 1997, as a new generation of neo-liberal development plans imposed a territorial model based on centralized large-scale metropolitan operations of infrastructure and equipment, which would indiscriminately consume the totality of Madrid’s land. At the end of the Part II, in Chapter 6, the metropolitan area will be represented graphically and the 229 pieces that have been gradually encroaching upon land designated for the Greenbelt will be analysed. This analysis will be carried out according to the parameters defined for the study, and the first general conclusions of the thesis will be based on its findings. It will show how alliances between the various governing authorities in the construction of the city and its environment have successively violated established plans with regard to the definitions of city and territory, how shortages of instrumental and judicial resources have accentuated the dismantling process, and how natural and geographical factors have influenced functional specialization and social segregation in the Madrid Metropolitan Area. The final step, detailed in Part III, will address two fundamental aspects of what has just been described: the lack of consideration for the cultural and environmental values which have shaped this territory and imprinted upon it a specific and unique character; and the structure of land domination, with a precise identification of the social group and agents responsible at each stage of the Greenbelt’s commercialization, who, under an umbrella of social urgency and deceptive public benefit, have used it to obtain substantial financial rewards. For this purpose, a closer look is taken at two specific areas: the municipality of Pozuelo de Alarcón, representative of the suburban growth of an elite population which has occupied the Greenbelt areas of the greatest ecological value; and the Hortaleza-Barajas district, which has offered its territory to large metropolitan business interests, based on activities centred on the connection between Madrid and Barcelona and the system of international air travel. Both of these settings are located to the north of the line which divides the Sierra from La Mancha, and thus occupy the most valuable land in the Madrid region (a functional structure anticipated by Bidagor in 1946, with his city model adapted to the territory of Madrid). Finally, an attempt will be made to interpret the phenomenon of metropolitan Greenbelt occupation, confirming initial hypotheses, specifying the environmental and cultural values that have been violated, and identifying the various players involved, as well as numerous urbanization operations of varying sizes and interests, and the instruments of planning they have used. It will be seen from this that the construction of the MMA has in fact followed a “spread” model, a “grease spot” (as Geddes calls it) which, from the outset of the planning process and according to the definition of a greenbelt as a construction-free zone, was precisely to be avoided. This structural role (to provide a balance between a city and its residents) has thus been abandoned and the Greenbelt converted instead into a communicative framework which, once consolidated, has become the greatest ally of the real estate machine. After this process of violating limits, norms and established behaviour has been described and solidly documented, a reflection will be made on the real influence of the Greenbelt proposal in the construction of the MMA. At the same time, new roles will be suggested for future planning, roles which are deliberate and long term, in opposition to the immediate and circumstantial. This will enable a new interpretation of the theoretical principles behind the greenbelt concept, a space designed to connect the territory of Madrid environmentally, socially and culturally.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El espacio geográfico, entendido como territorio que da soporte a la vida y a la civilización, ha estado siempre fuertemente supeditado a la presencia de agua. Desde la Prehistoria el hombre otorgó al agua, junto a otros elementos que aseguraban o protegían su vida, un valor superior, por encima de lo humano. Paralelamente y de manera natural, el jardín, en sus inicios en estrecha relación con la agricultura y con el paisaje, fue el ámbito idóneo para la creación de nuevas formas acuáticas artificiales. Este proceso dio lugar a un extenso repertorio de formas compositivas que parece que tuvo en el Renacimiento un punto de inflexión, en el que se observa como la mayoría de recursos y configuraciones básicas del agua estaban ya plenamente establecidas. Esta evolución y sus resultados ha sido el objeto de la primera parte de la tesis: su objetivo ha sido analizar cómo el agua configura, cualifica o puede llegar a construir el jardín y el territorio en el que se inserta, así como establecer las posibles relaciones entre estos dos ámbitos de estudio. Aunque la historia es su fundamento, el planteamiento aquí ha sido más bien conceptual; estudiando los componentes acuáticos desde un punto de vista fundamentalmente compositivo. Esta indagación previa ha sido indispensable para llegar a entender en profundidad los modos en los que el agua se muestra en el jardín y en el paisaje renacentista y manierista, momentos en que se insertan los dos casos de estudio que constituyen la segunda parte de la tesis. Sin caer en un determinismo geográfico extremo, puede admitirse que el jardín, como manifestación cultural intrínsecamente ligada al entorno, depende fuertemente del territorio en el que se asienta; hecho particularmente evidente en aquellas regiones en las que su especial geografía ha sido un claro factor condicionante de su historia. Por ello, Holanda y España han sido las dos localizaciones elegidas para profundizar en este estudio; no tanto por su estrecha relación política y cultural, sino por su profundo y sugerente contraste de medio físico y climático. La Península Ibérica, geográficamente el término del mundo conocido en Occidente hasta el final de la Edad Media, y por esta circunstancia convertida en destino, en territorio de permanencia y fusión, estará además supeditada en la mayoría de su territorio a la falta de agua, siendo a la vez heredera directa del universo y la tradición del jardín meridional originario de Oriente. En el extremo opuesto, Holanda, espacio de transición entre el mar y la tierra firme “real”, es un territorio permeado de humedad y surcado con generosidad por grandes ríos. El país, con una relación ambivalente con el agua, unas veces como amenaza y otras como fuente de nuevas oportunidades, será por el contrario especialmente favorable para el desarrollo de un modelo de jardín septentrional. Un jardín del norte, que no obstante, no surgirá de despejar los bosques, como en el arquetipo nórdico, sino que crecerá sobre planicies antes saturadas de agua o directamente anegadas. El marco temporal de los dos casos concretos ha considerado como fecha inicial 1548, momento en el que Felipe II, aún príncipe, realizó su primer viaje a los Países Bajos, y entró en contacto con el modelo holandés. La extensa producción posterior de jardines de Felipe II, siempre con el agua como protagonista, tuvo como destacado referente la adaptación al suelo y la geografía hispánicos de dicho modelo. Como fecha final se fija 1648, justo un siglo después, fecha coincidente con la firma de la Paz de Westfalia, tratado que supone la total reorganización política del territorio europeo y la pérdida de la hegemonía española en Europa. En Holanda sólo dos años después nacerá Guillermo III de Orange, estatúder de las Provincias Unidas, también futuro rey de Inglaterra, Escocia e Irlanda. Para entonces en Holanda ya se había asistido al desarrollo de un arte propio de jardín, íntimamente ligado al agua, sorprendentemente no demasiado bien conocido y que será uno de los temas de esta investigación. Finalmente, se propone una lectura conjunta de toda esta serie de intervenciones que tienen como argumento el agua, en la que se integra la información procedente de distintos campos de estudio, cada una con su metodología particular. El resultado es una tesis en la que el jardín y el territorio son tratados desde un nuevo y enriquecedor punto de vista. ABSTRACT Geographical space, understood as the territory that provides support to human life and civilization, has always been strongly subjected to the presence of water. From Prehistory man gave to water, along with other elements that ensured or protected life, a higher value than the merely human. At the same time and in a natural way, the garden, in its beginnings with a close relationship with agriculture and landscape, soon developed as the appropriate ground for the creation of new artificial aquatic forms, in a process that seems to have a turning point in the Renaissance, when most of the basic waterworks and resources were already fully established. This development and its outcomes are the subjects of the first part of the thesis: its scope has been to analyse how water configures, qualifies and might even help to construct the garden or landscape attached to it; and to establish the possible links between these two fields of study. Although history based, the point of view here is mainly conceptual, studying the water components understood as composite elements. This exploratory research has been essential to deeply understand the water patterns shown in the Renaissance and Mannerist garden and landscape, periods in which the two case studies are inserted. Without falling in extreme determinism, it can be accepted however, that garden, as a cultural expression linked to environment, is strongly dependant on territorial setting; something particularly evident in those areas where specific geography has been a clear history conditioning factor. This is the reason that leads to choose the Netherlands and Spain to deepen this study, no so much for their interesting cultural and politics relations as for the suggestive and profound contrast of their physical environment and climate. The Iberian Peninsula, geographically the limit of the known world in Occident until the end of the Medium Age, and by this circumstance understood as endpoint, more a destination than a crossroad, a territory of permanence and fusion, but also subjected to water shortage; is thus associated with the universe and tradition of the meridional garden imported from Orient. In the opposite, the Netherlands, a transitional space between the sea and the “real” firm land, is a territory permeated by water and crossed by big rivers. Always with an ambivalent relationship with water, sometimes seen as a threat and sometimes as a source of new opportunities, it was in the other hand the adequate land for the development of a special model of Northern garden. A garden that will not arise, however, from the clearing of woods as in the Nordic archetype, but that will grow on plains originally saturated of water or directly waterlogged. The timeframe of the two cases has 1548 as the initial year, moment in which Philip II, yet prince, made his first trip to the Low Lands and imbibed the Dutch garden model. The later and bountiful garden works of the king, always with the water as the main focus, adapted the imported model to the Spanish ground and geography. The final date is fixed in 1648, just a century after, in coincidence with the Westfalia Peace; a treaty that implied the total political reorganization of the European territory and the end of the Spanish hegemony in the continent. In Holland, only two years later, William III of Orange, Stadtholder of the United Provinces and also future king of England, Scotland and Ireland, was born. But by then the Netherlands had developed an own garden art, closely linked to water. This type garden, surprisingly not very well known, and its relationship with water, will be other of the addressing questions of this work. Finally, the investigation merges the different interventions that have water as an argument, integrating all the fields considered with their particular methodological approaches. The final result is a thesis in which garden and territory are treated from a new and enriching perspective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde hace ya varias décadas la praxis de la ecología ha venido reconociendo la necesidad de estudiar los múltiples sistemas de interacción del ser humano, como especie viva, y su entorno. Entidades espaciales como el paisaje geográfico son empleadas para delimitar sistemas territoriales operados por la sociedad, precisando campos concretos de su acción física, biológica y cultural. La ecología aborda así el conocimiento científico del territorio como asentamiento humano, rastrea sus patrones espaciales y analiza su compleja estructura funcional. En ese contexto, la transferencia de herramientas e instrumentos desde la ecología al ámbito proyectivo posee ya un bagaje de más de cinco décadas. Cada vez con más frecuencia el proyecto emplea parámetros, inventarios, fórmulas, indicadores y tecnologías que tratan de dar una respuesta ambientalmente adecuada a los condicionantes de contorno, por ejemplo aprovechando las condiciones climáticas en la optimización energética o proponiendo programas de usos del suelo que eviten perturbaciones en ecosistemas de interés. Con todo, en el momento presente surgen voces que, ante el dominio indiscutible de los enfoques netamente deterministas, tratan de recordar que los principios del pensamiento ecológico van más allá del mero control cuantitativo de los procesos biofísicos. Recuerdan que la etología demostró a principios del XX que el ser humano, como ser consciente, inviste una relación de intimidad con su entorno que supera tales perspectivas: a través de la correspondencia entre percepción y significación, entre lo físico y lo psíquico, entre interioridad y exterioridad, las personas abrazan la plenitud de aquello que les rodea en un acto de profunda conciliación afectiva. De tal ligadura de intimidad depende, sí o sí, y en toda su profundidad, la aceptación humana del entorno construido. A través de la noción de ambiente [Umwelt] se demuestra que la relación del hombre con su entorno es inseparable, bidireccional y coordinada y, por lo tanto, desde una posición coherente, la experiencia del espacio puede ser examinada a partir de la reciprocidad que constituyen, en continuidad, la persona y el lugar. De esta forma, la tesis dirige su objetivo principal a explorar y considerar, desde el proyecto, el significado y la influencia de la experiencia ambiental del espacio construido en la vida humana. Es más que probable que buena parte de los problemas de desafección del hombre con los paisajes transformados de su contemporaneidad tenga que ver con que tanto las intensidades de la experiencia y percepción humana, como la potestad interpretativa de sus productos culturales, incluyendo la arquitectura, han sido fuertemente reducidas. Ante este problema, la investigación toma como hipótesis la oportunidad que ofrece el pensamiento ecológico de reformular la experiencia estética como un acto de conocimiento, como un evento donde se da el encuentro físico y se construyen significados, donde se sancionan valores sociales y se mira hacia el futuro. Se ha de señalar que la presente tesis doctoral arranca en el Laboratorio de Paisaje del Grupo de Investigación Paisaje Cultural de la Universidad Politécnica de Madrid dirigido por Concha Lapayese y Darío Gazapo, y por tanto hace suyos para el estado del arte los principales conceptos e ideas bajo los que el trabajo teórico y práctico del grupo se viene orientando desde hace años: la consideración del paisaje como acontecimiento; la oscilación de la interpretación entre un paisaje específico y un paisaje genérico en un mundo globalizado; el reconocimiento de la experiencia estética del paisaje como una toma de conciencia social; y en definitiva, la reivindicación de la interioridad en el proyecto contemporáneo. La investigación profundiza en una línea de oportunidad que se abre al promover lo que se ha llamado un conocimiento por lo sentido como estrategia ambiental que permite contrarrestar mitos profundamente arraigados en las estructuras sociales. El primer paso en ese recorrido sería explorar ecológicamente el aporte de la experiencia estética; esto es, su consideración como forma de conocimiento específico. Resultaría pertinente impulsar la idea de la inmersión en el paisaje como fenómeno experiencial, sensual y corporal, y enfrentar, desde ahí, el problema de la aceptación social de lo nuevo y lo trasformado de acuerdo con el momento actual. La exploración sobre la afectividad en el ambiente no es, en cualquier caso, un asunto nuevo. Sin pretensiones de historiografía, dos momentos del siglo XX concentran el interés de la investigación. La primera se corresponde fundamentalmente con la segunda década del siglo, en relación a una serie de influencias que desde los avances científicos determinaron singulares aventuras del arte más experimental. La segunda se posiciona en el entorno de 1970, época en la que es conocido el interés que despertaron las cuestiones ambientales. En ambos casos se han estudiado aportaciones que desvelan conceptos determinantes en la definición de la experiencia estética como un evento de adquisición de conocimiento por lo sentido. Es conveniente adelantar el rol de centralidad que para la investigación tiene el concepto de energía, tal como el propio título subraya. La energía como realidad material y sensible es el sustrato que permite navegar por el principio de unidad epistemológica que subyace al pensamiento ecológico. Sus continuas referencias simbólicas, físicas y metafóricas entre los artistas estudiados no son un mero recurso iconográfico: mantienen inherente el principio de continuidad ambiental en el cual el ser humano y la inmensidad del cosmos navegan indisociables. Un discurso unificado y consistente sobre los aportes de la experiencia estética enfocada como forma de conocimiento por lo sentido hila la lectura histórica, conceptual y práctica de toda la investigación. Con ello se alcanza a hilvanar un diagrama conceptual, modelo de análisis proyectivo, que recoge ideas científicas, filosóficas y proyectivas. De alguna manera, el diagrama trata de dibujar, desde los principios del pensamiento ecológico, la correlación de continuidad que, vacilante, tensa, sutil y frágil se desplaza incesante e irresuelta entre interioridad y exterioridad. ABSTRACT Over the last few decades ecological practice has come to acknowledge a need for studying the multiple systems of interaction between the human being - inasmuch as it is a living species - and its environment. Spatial entities such as the geographic notion of landscape have been used to delimitate the territorial systems operated by society and to describe in detail specific fields of its physical, biological and cultural action. Ecology has thus managed to address the scientific knowledge of the territory as a human settlement, tracking its spatial patterns and analysing its complex functional structure. In this context, the transfer of tools and instruments from the field of ecology to that of design has a tradition already going back more than fifty years. Increasingly more often, design makes use of parameters, inventories, formulas, indicators and technologies to give an environmentally sound response to contour conditions: for instance, taking advantage of the local climate for the optimisation of energy consumption or proposing land uses that avoid disturbing valuable ecosystems. Yet in the present day some voices have arisen that, against the uncontested domination of purely positivistic approaches, are trying to draw attention to the fact that the principles of ecological thought go beyond mere quantitative control of biophysical processes. They point out that, in the early 20th century, ethology proved that the human being, as a conscious entity, invests itself into a relationship of intimacy with its environment that surpasses such perspectives: through the correspondences between perception and signification, between physical and psychological or between inside and outside, people embrace the entirety of their surroundings in an action of deep affective conciliation. It is on this link of intimacy that - fully and unquestionably - human acceptance of the built environment depends. Through the notion of environment [Umwelt] it can be proven that the relationship between the human being and its environment is inseparable, bidirectional and coordinated; and that, therefore, from a coherent position the experience of space can be examined through the reciprocity constituted continuously by person and place. Thus, the main goal in this thesis is to explore and acknowledge, from the standpoint of design, the meaning and influence of the environmental experience in human life. It is extremely likely that many of the issues with mankind’s alienation from the transformed landscapes of the present day arise from the fact that both the intensity of human perception and experience and the interpretive capacity of its cultural products –including architecture - have been greatly reduced. Facing this issue, research has taken as hypothesis the opportunity offered by ecological thought of reformulating aesthetic experience as an act of knowledge – as an event where physical encounter takes place and meanings are constructed; where social values are sanctioned and the path towards the future is drawn. This notwithstanding, the present thesis began in the Landscape Laboratory of the Technical University of Madrid Cultural Landscape Research Group (GIPC-UPM), led by Concha Lapayese and Darío Gazapo; and has therefore appropriated for its state of the art the main concepts and ideas that have been orienting the practical and theoretical work of the latter: the understanding of landscape as an event, the oscillation of interpretation between a specific and a generic landscape within a globalised world; the acknowledgement of the aesthetic experience of landscape as a way of acquiring social awareness; and, all in all, a vindication of interiority in contemporary design. An exploration has been made of the line of opportunity that is opened when promoting what has been termed knowledge through the senses as an environmental strategy allowing to counter myths deeply rooted in social structures. The first step in this path would be an ecological exploration of the contribution of the aesthetic experience; that is, its consideration as a type of specific knowledge. It would be pertinent to further the idea of immersion into the landscape as an experiential, sensual and corporeal phenomenon and, from that point, to face the issue of social acceptance of what is new and transformed according to the values of the present day. The exploration of affectivity in the environment is not, at any rate, a new topic. Without aspiring to make a history of it, we can mark two points in the 20th century that have concentrated the interest of this research. The first coincides with the second decade of the century and relates to a number of influences that, arising from scientific progress, determined the singular adventures of the more experimental tendencies in art. The second is centred around 1970: a period in which the interest drawn by environmental matters is well known. In both cases, contributions have been studied that reveal crucial concepts in defining the aesthetic experience as an event for the acquisition of knowledge through the senses. It is necessary to highlight the role of centrality that the concept of energy has throughout this research, as is evident even in its title. Energy as a material, sensitive reality is the substrate making it possible to navigate through the principle of epistemological unity underlying ecological thought. The continuous symbolic, physical and metaphorical references to it among the artists studied here are not a mere iconographic source: they remind of the inherency of the principle of environmental continuity within which the human being and the immensity of cosmos travel indissociably. A unified, consistent discourse on the contributions of the aesthetic experience addressed as knowledge through the senses weaves together the historic, conceptual and practical reading of the whole research. With it, a conceptual diagram is constructed – a model of design analysis – gathering together scientific, philosophical and design ideas. Somehow, the diagram tries to draw from the principles of ecological thought the correlation of continuity that, vacillating, tense, subtle and fragile, shifts incessantly and unresolved between interiority and exteriority.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La erosión costera es un fenómeno que ha cobrado importancia durante los últimos años, debido a sus repercusiones tanto en el turismo, como en el incremento de riesgo para las infraestructuras y para la población allí ubicada. Se define como el retroceso progresivo de la línea de costa cuyas causas pueden ser de origen natural o antropogénicas. La costa merece la máxima protección, y su gestión debe asegurar su integridad física y su libre acceso, al igual que un uso público por parte de todos. En este horizonte, la reducción de costes, la facilidad de construcción y velocidad de realización, las obras de geotextil se han mostrado como una alternativa muy seria a las obras duras u obras clásicas, tradicionalmente realizadas a lo largo de las costas. Pero esta alternativa de uso conlleva un mayor conocimiento en el comportamiento de éstas, su diseño y durabilidad. Las obras de geotextil, como su nombre indica, se realizan con elementos tridimensionales de geotextil (cosidos o no cosidos) rellenos de arena. Estos elementos se pueden considerar innovadores, económicos, ecológicos y alternativos frente a los tradicionales. Se distinguen tres tipos denominados: sacos, tubos y contenedores. El principal objetivo de esta tesis se centra en la determinación de las zonas de la costa apropiados para la utilización de estructuras compuestas de elementos de geotextil rellenos de arena, como obras de defensa de costas, con el fin de facilitar su uso en la ingeniería de costas. Para ello se ha clasificado tanto las distintas zonas del perfil longitudinal de una playa, como los tipos de costa en función de la variable altura de ola significante. Se han determinado las limitaciones de esta variable en las distintas fórmulas de estabilidad de estas estructuras. Y finalmente, en función de la máxima limitación de altura de ola significante y de sus posibles valores en las zonas y tipos de costa, se han determinado las zonas más apropiadas para el uso de las estructuras compuestas por elementos de geotextil. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Coastal erosion is a phenomenon that has become more important in recent years because of its impact on both on tourism, and increased risk to infrastructure and the population located there. It is defined as the gradual decline in the coastline whose causes may be natural or anthropogenic origin. The coast deserves maximum protection, and management should ensure their physical integrity and their free access, as well as public use by all. In this line, cost reduction, ease of construction and completion rate, geotextile works have been shown as a very serious to hard works or classics alternative, traditionally performed along the coasts. But this alternative use entails greater insight into the behaviour of these, design and durability. Works of geotextile, as its name suggests, are made with three-dimensional elements of geotextile (sewn or stitched) filled with sand. These items can be considered innovative, economic, and ecological alternative compared to traditional. Bags, tubes and containers, three known types are distinguished. The main objective of this thesis focuses on determining the appropriate areas of the coast for the use of composite structures of elements filled geotextile sand as coastal defence works, in order to facilitate their use, in coastal engineering. For it, has been classified by both the different areas of the longitudinal profile of a beach as the shoreline types depending on the variable significant wave height. We have determined the limitations of this variable in the different formulas stability of these structures. And finally, depending on the maximum limitation of significant wave height and its possible values in the areas and types of coastline, have determined the most appropriate for use in structures composed of elements of geotextile areas. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo de tesis se desarrolla, en primer lugar, un estudio de peligrosidad sísmica en Ecuador continental, siguiendo una metodología probabilista zonificada. El estudio se plantea a escala regional y presenta como principales aportaciones: 1) la elaboración de un Estado del Arte sobre Tectónica y Geología de Ecuador, concluyendo con la identificación de las principales fuentes sísmicas; 2) La confección de un Catálogo Sísmico de proyecto, recopilando información de distintas agencias, que ha sido homogeneizado a magnitud momento, Mw, depurado de réplicas y premonitores y corregido por la falta de completitud para la estimación de tasas en diferentes rangos de magnitud; 3) la propuesta de un nueva zonificación sísmica, definiendo las zonas sismogenéticas en tres regímenes tectónicos: cortical, subducción interfase y subducción in-slab; 4) la caracterización sísmica de cada zona estimando los parámetros de recurrencia y Magnitud Máxima (Mmax), considerando para este último parámetro una distribución de valores posibles en función de la sismicidad y tectónica, tras un exhaustivo análisis de los datos existentes; 5) la generación de mapas de peligrosidad sísmica de Ecuador continental en términos de aceleración pico (PGA) y espectral SA (T= 1s) , en ambos casos para periodos de retorno (PR) de 475, 975 y 2475 años; 6) La estimación de espectros de peligrosidad uniforme (UHS) y sismos de control mediante desagregación de la peligrosidad, para PR de 475 y 2475 años en 4 capitales de provincia: Quito, Esmeraldas, Guayaquil y Loja. Una segunda parte del trabajo se destina al cálculo del riesgo sísmico en el Barrio Mariscal Sucre de Quito, lo que supone incidir ya a una escala municipal. Como principales contribuciones de este trabajo se destacan: 1) definición del escenario sísmico que más contribuye a la peligrosidad en Quito, que actuará como input de cálculo del riesgo; 2) caracterización de la acción sísmica asociada a ese escenario, incluyendo resultados de microzonación y efecto local en la zona de estudio; 3) Elaboración de una Base de Datos partiendo de información catastral e identificación de las tipologías dominantes; 4) Asignación de clases de vulnerabilidad y obtención de porcentajes de daño esperado en cada clase ante la acción sísmica definida previamente, con la consiguiente representación de mapas de vulnerabilidad y daño; 5) mapas de indicadores globales del riesgo sísmico; 6) Base de datos georreferenciada con toda la información generada en el estudio. Cabe destacar que el trabajo, aunque no formula nuevos métodos, si plantea una metodología integral de cálculo del riesgo sísmico, incorporando avances en cada fase abordada, desde la estimación de la peligrosidad o la definición de escenarios sísmicos con carácter hibrido (probabilista-determinista), hasta la asignación de vulnerabilidades y estimación de escenarios de daño. Esta tesis trata de presentar contribuciones hacia el mejor conocimiento de la peligrosidad sísmica en Ecuador y el riesgo sísmico en Quito, siendo uno de los primeros estudios de tesis que se desarrolla sobre estos temas en el país. El trabajo puede servir de ejemplo y punto de partida para estudios futuros; además de ser replicable en otras ciudades y municipios de Ecuador. -------------------- ABSTRACT: ------------------ This thesis first develops a study of seismic hazard in mainland Ecuador, following a zoned, probabilistic methodology. The study considers a regional scale and presents as main contributions: 1) The development of a State of Art on the Tectonics and Geology of Ecuador, concluding with the identification of the main seismic sources; 2) The creation of a Seismic Catalog project, collecting information from different agencies, which has been homogenized to Moment magnitude, Mw, purged from aftershocks and premonitories and corrected for the lack of completeness to estimate rates in different maggnitude ranges; 3) The proposal of a new seismic zoning, defining the seismogenic zones in three tectonic regimes: cortical, subduction interface and subduction in-slab; 4) The seismic characterization of each zone, estimating the parameters of recurrence and Maximum Magnitude (Mmax), considering the latter as a distribution of possible values, depending on the seismicity and tectonics, and after a thorough analysis of the existing data; 5) Seismic hazard maps of continental Ecuador in terms of peak ground acceleration (PGA) and spectral SA(T=1), and return periods (PR) of 475, 975 and 2475 years; 6) Uniform hazard spectra (UHS) and control earthquakes obtained by hazard disaggregation, for PR 475 and 2475 years in four provincial capitals: Quito, Esmeraldas, Guayaquil and Loja. The second section focuses on the calculation of seismic risk in the Quito Mariscal Sucre parish, which is already supposed to be influencing at a municipal level. The main contributions here are the: 1) Definition of the seismic scenario that contributes most to the hazard in Quito, which acts as an input in the risk calculation; 2) Characterization of the seismic action associated with that scenario, including results of micro-zoning and local effect in the study area; 3) Development of a database, based on cadastral data and identification of key typologies; 4) Allocation of vulnerability classes and obtaining percentages of damage expected in each class faced with the seismic action previously defined, with the consequent representation of maps of vulnerability and damage; 5) Global maps of seismic risk indicators; 6) Geo-referenced database with all the information generated in the study. It should be noted that although new methods are not prescribed, this study does set a comprehensive methodology for the calculation of seismic risk, incorporating advances in each phase approached, from the hazard estimation, or definition of seismic scenarios applying a hybrid (deterministic-probabilistic) method, to the allocation of vulnerabilities and estimation of damage scenarios. This thesis aims to present contributions leading to a better understanding of seismic hazard in Ecuador and seismic risk in Quito, and is one of the first studies in the country to develop such themes. This study can serve as an example and starting point for future studies, which could replicate this methodology in other cities and municipalities.