851 resultados para incertidumbre


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La movilización de ingentes recursos energéticos y materiales ha permitido la integración económica de territorios remotos, previamente autónomos y relativamente autosuficientes. Los modelos tradicionales de análisis del territorio en función de los recursos locales han dejado de ser eficaces para describir la nueva realidad. En la actualidad los territorios han pasado a estar al servicio de un sistema-mundo global, renunciando a la complejidad interna y convirtiéndose en mero soporte infraestructural de los flujos globales. Frente a la incertidumbre que amenaza al propio sistema global, una estrategia defensiva debería centrarse en conservar los recursos locales que puedan dotar de cierta flexibilidad y autonomía a los territorios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio de la evolución tecnológica a partir de logros concretos de la humanidad es una forma de aproximación a la enseñanza de la ingeniería. Comprender que las tecnologías existentes son el resultado de un depurado proceso de creación/selección no es trivial. Por ello combinar un conocimiento deductivo profundo con un pensamiento divergente que favorezca la obtención de soluciones viables y creativas es fundamental en el contexto de incertidumbre económica actual. En este ensayo se comparan siete técnicas de enseñanza que pretenden favorecer el PD en una estrategia adaptativa para alumnos con distintos estilos cognitivos (AA) sobre la base de un proceso de vigilancia tecnológica (VT) aplicada a algunos objetos cotidianos y otros muy especializados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las mayores dificultades que aparecen en una futura reedición de la Norma Sismorresistente son probablemente las derivadas de una carencia casi absoluta de datos básicos recogidos en el territorio nacional, y en particular los referentes a registros de acelerogramas acaecidos en los últimos años. Por otra parte, si bien la información histórica de los seísmos descritos en términos cualitativos - intensidades- es suficientemente extensa, no existe hasta la fecha un mapa adecuado de riesgo sísmico que comprenda todo el país. La incertidumbre representada por las anteriores limitaciones debe de ser subsanada en la redacción de una nueva norma, mediante un enérgico programa de trabajo, que incluya como objetivo prioritario, la aportación de los anteriores datos básicos referidos a España. Esta nota hace referencia, de un modo específico, a los criterios que deberían ser considerados en la modificación del espectro básico de respuesta al tener en cuenta la influencia del terreno bajo la cimentación (amplificación del suelo). Aquí no se incluyen los efectos del tipo de cimentación, que deberían ser considerados de un modo separado así como la interacción dinámica suelo-estructura, que constituye una situación más compleja y cuyo estudio exige al menos el conocimiento de la amplificación del suelo y que se suele llevar a cabo en el caso de estructuras importantes (centrales nucleares, presas de tierra, etc.) que no deben ser objetivo prioritario de una norma sismorresistente de aplicación más general a edificación normal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, ya no se puede pasar por alto la necesidad de una agricultura climáticamente más inteligente para los 500 millones de pequeños agricultores del mundo (Wheeler, 2013). Estos representan aproximadamente el 60 % de la agricultura mundial y proporcionan hasta el 80 % de los alimentos en los países en vías de desarrollo, los pequeños agricultores gestionan vastas extensiones de tierra y lamentablemente incluyen los grupos con mayor proporción de personas en estado de inseguridad alimentaria. El cambio climático está transformando el contexto para la agricultura en pequeña escala. Durante siglos, los pequeños agricultores desarrollaron la capacidad de adaptarse a los cambios ambientales y la variabilidad del clima, pero la velocidad y la intensidad del cambio climático está superando su capacidad de respuesta. Si no se cambia la manera que tenemos de lidiar con el cambio climático, tanto en acciones locales como globales, es muy probable que las personas rurales de entornos vulnerables tengan que adaptarse a un calentamiento global promedio de 4 °C por encima de los niveles preindustriales para el año 2100. Esta alza de las temperaturas aumentará aún más la incertidumbre y provocará desastres naturales como las sequías, la erosión del suelo, la pérdida de biodiversidad y la escasez agua sean mucho más frecuentes. Uno de los factores más importantes para los pequeños agricultores es que ya no pueden depender de los promedios históricos, por lo que es más difícil para ellos para planificar y gestionar la producción debido a los cambios en los patrones climáticos. Algunos de los principales cultivos de cereales (trigo, arroz, maíz, etc.) han alcanzado su umbral de tolerancia al calor y un aumento de la temperatura en torno a 1,5-2 °C podría ser muy perjudicial. Estos efectos a corto plazo podrían ser agravados por otros a medio y largo plazo, los que se refieren al impacto socioeconómico en términos de oportunidades y estabilidad política. El cambio climático está haciendo que el desarrollo de la pequeña agricultura resulte mucho más caro. A nivel de proyectos, los programas resistentes al clima tienen, normalmente, unos costos iniciales más altos, tanto de diseño como de implementación. Por ejemplo, es necesario incluir gastos adicionales en infraestructura, operación y mantenimiento; desarrollo de nuevas capacidades y el intercambio de conocimientos en torno al cambio climático. También se necesita mayor inversión para fortalecer las instituciones frente a los nuevos retos que propone el cambio climático, o generar información que pueda ser de escala reducida y con enfoques que beneficien a la comunidad, el cambio climático es global pero los efectos son locales. Es, por tanto, el momento de redefinir la relación entre agricultura y medio ambiente, ya que se hace cada vez más necesario buscar mejores y más eficientes maneras para responder al cambio climático. Es importante señalar que la respuesta al cambio climático no significa reinventar todo lo que se ha aprendido sobre el desarrollo, significa aplicar un esfuerzo renovado para hacer frente a los cambios en el trabajo de cooperación al desarrollo de una manera más sistemática y más amplia. Una respuesta coherente al cambio climático requiere que la comunidad internacional reconozca la necesidad de aumentar el apoyo financiero para la adaptación así como un mayor énfasis en proporcionar soluciones diseñadas para aumentar la resiliencia1 de los pequeños agricultores a las crisis relacionadas con el clima. Con el fin de responder a algunos de los desafíos mencionados anteriormente, esta investigación pretende contribuir a fortalecer las capacidades de los pequeños productores, aquellos que actualmente están la primera línea frente a los desafíos del cambio climático, promoviendo un desarrollo que tenga un impacto positivo en sus medios de vida. La tesis se compone de cuatro capítulos. El primero define y analiza el marco teórico de las interacciones entre el cambio climático y el impacto en los proyectos de desarrollo rural, especialmente los que tienen por objetivo mejorar la seguridad alimentaria de los pequeños productores. En ese mismo capítulo, se presenta una revisión global de la financiación climática, incluyendo la necesidad de asignar suficientes recursos para la adaptación. Con el fin de lograr una mayor eficacia e impacto en los proyectos de desarrollo, la investigación desarrolla una metodología para integrar actividades de adaptación al cambio climático, presentada en el segundo capítulo. Esta metodología fue implementada y validada durante el periodo 2012-14, trabajando directamente con diferentes equipos gubernamentales en diez proyectos del Fondo Internacional de Desarrollo Agrícola ). El tercero presenta, de manera detallada, la aplicación de la metodología a los estudios de caso de Bolivia y Nicaragua, así como un resumen de las principales conclusiones en la aplicación de los ocho países restantes. Finalmente, en el último capítulo se presentan las conclusiones y un esbozo de futuras líneas de investigación. Actualmente, el tema de la sostenibilidad ambiental y el cambio climático está ganando terreno en la agenda de desarrollo. Es por ello que se alumbra esta investigación, para que a través de los resultados obtenidos y la implementación de la metodología propuesta, sirva como herramienta estratégica para la planificación y la gestión operativa a la hora de integrar iniciativas de adaptación en los proyectos de desarrollo rural. ABSTRACT The need for climate-smart agriculture for the world’s 500 million smallholder farms cannot be overlooked: they account for 60 per cent of global agriculture, provide up to 80 per cent of food in developing countries, manage vast areas of land and make up the largest share of the developing world’s undernourished. Climate change is transforming the context for smallholder agriculture. Over centuries smallholders have developed the capacity to adapt to environmental change and climate variability, but the speed and intensity of climate change is outpacing the speed of historically autonomous actions. In the absence of a profound step-change in local and global action on climate change, it is Increasingly likely that poor rural people would need to contend with an average global warming of 4 degrees above pre-industrial levels by 2100, if not sooner. Such substantial climatic change will further increase uncertainty and exacerbate weather –related disasters, droughts, biodiversity loss, and land and water scarcity. Perhaps most significantly for smallholder farmers, they can no longer rely on historical averages, making it harder for them to plan and manage production when planting seasons and weather patterns are shifting. The major cereal crops (wheat, rice, maize, etc.) are at their heat tolerance threshold and with a 1.5-2°C temperature increase could collapse. These “first-round” effects will be compounded by second-round socio-economic impacts in terms of economic opportunities and political stability. Climate change is making the development of smallholder agriculture more expensive. At project level, climate-resilient programmes typically have higher up-front design and implementation costs – e.g. infrastructure costs and initially increased asset management, operation and maintenance, more capacity-building and knowledge sharing, strengthening institutions, greater project development costs (downscaled data generation and community-based approaches), and greater costs from enhancing cross sectorial and stakeholders collaboration. Consequently it’s time to redefine the relationship between agriculture and environment as we need to look better and more efficient ways to respond to climate change. It is important to note that responding to climate change does not mean to throwing out or reinventing everything that has been learnt about development. It means a renewed effort to tackle wider and well-known development changes in a more systematic way. A coherent response to climate change requires acknowledge of the need to increase the financial support for adaptation and a continued emphasis on provided solutions designed to increase the resilience of smallholders and poor communities to shocks, which are weather related. In order to respond to some of the challenges mentioned before, this research aims to contribute to strengthen the capacities of the smallholders and to promote a development that will positively impact in the rural livelihoods of the most vulnerable smallholders farmers; those who currently are in the first line facing the challenges of climate change. The thesis has four chapters. Chapter one describes and analyses the theoretical framework of the interactions between climate change and the impact on rural development projects, especially those aimed at improving the food security of smallholders producers. In this chapter a comprehensive review of climate financing is presented, including the need to allocate sufficient resources for adaptation. In order to achieve greater effectiveness and impact on development projects, the research develops in the second chapter a methodology to integrate adaptation activities for climate change. This methodology was implemented and validated during the 2012-14 period, working directly with various government teams in ten projects of the International Fund for Agricultural Development (IFAD). The third chapter presents in detail the application of the methodology to the case studies of Bolivia and Nicaragua, as well as a summary of the main conclusions of its implementation in the remaining eight countries. The final chapter exposes the main conclusions and future research topics. At a time when environmental sustainability and climate change issues are gaining more attention, the research and obtained results through the implementation of the model methodology proposed, can be considered a strategic tool for planning and operational management to integrate adaptation initiatives in rural development projects. The use of the proposed methodology will boost incentives to scale up climate resilience programmes and integrate adaptation to climate change into wider smallholder development programmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente Tesis se ha llevado a cabo el contraste y desarrollo de metodologías que permitan mejorar el cálculo de las avenidas de proyecto y extrema empleadas en el cálculo de la seguridad hidrológica de las presas. En primer lugar se ha abordado el tema del cálculo de las leyes de frecuencia de caudales máximos y su extrapolación a altos periodos de retorno. Esta cuestión es de gran relevancia, ya que la adopción de estándares de seguridad hidrológica para las presas cada vez más exigentes, implica la utilización de periodos de retorno de diseño muy elevados cuya estimación conlleva una gran incertidumbre. Es importante, en consecuencia incorporar al cálculo de los caudales de diseño todas la técnicas disponibles para reducir dicha incertidumbre. Asimismo, es importante hacer una buena selección del modelo estadístico (función de distribución y procedimiento de ajuste) de tal forma que se garantice tanto su capacidad para describir el comportamiento de la muestra, como para predecir de manera robusta los cuantiles de alto periodo de retorno. De esta forma, se han realizado estudios a escala nacional con el objetivo de determinar el esquema de regionalización que ofrece mejores resultados para las características hidrológicas de las cuencas españolas, respecto a los caudales máximos anuales, teniendo en cuenta el numero de datos disponibles. La metodología utilizada parte de la identificación de regiones homogéneas, cuyos límites se han determinado teniendo en cuenta las características fisiográficas y climáticas de las cuencas, y la variabilidad de sus estadísticos, comprobando posteriormente su homogeneidad. A continuación, se ha seleccionado el modelo estadístico de caudales máximos anuales con un mejor comportamiento en las distintas zonas de la España peninsular, tanto para describir los datos de la muestra como para extrapolar a los periodos de retorno más altos. El proceso de selección se ha basado, entre otras cosas, en la generación sintética de series de datos mediante simulaciones de Monte Carlo, y el análisis estadístico del conjunto de resultados obtenido a partir del ajuste de funciones de distribución a estas series bajo distintas hipótesis. Posteriormente, se ha abordado el tema de la relación caudal-volumen y la definición de los hidrogramas de diseño en base a la misma, cuestión que puede ser de gran importancia en el caso de presas con grandes volúmenes de embalse. Sin embargo, los procedimientos de cálculo hidrológico aplicados habitualmente no tienen en cuenta la dependencia estadística entre ambas variables. En esta Tesis se ha desarrollado un procedimiento para caracterizar dicha dependencia estadística de una manera sencilla y robusta, representando la función de distribución conjunta del caudal punta y el volumen en base a la función de distribución marginal del caudal punta y la función de distribución condicionada del volumen respecto al caudal. Esta última se determina mediante una función de distribución log-normal, aplicando un procedimiento de ajuste regional. Se propone su aplicación práctica a través de un procedimiento de cálculo probabilístico basado en la generación estocástica de un número elevado de hidrogramas. La aplicación a la seguridad hidrológica de las presas de este procedimiento requiere interpretar correctamente el concepto de periodo de retorno aplicado a variables hidrológicas bivariadas. Para ello, se realiza una propuesta de interpretación de dicho concepto. El periodo de retorno se entiende como el inverso de la probabilidad de superar un determinado nivel de embalse. Al relacionar este periodo de retorno con las variables hidrológicas, el hidrograma de diseño de la presa deja de ser un único hidrograma para convertirse en una familia de hidrogramas que generan un mismo nivel máximo en el embalse, representados mediante una curva en el plano caudal volumen. Esta familia de hidrogramas de diseño depende de la propia presa a diseñar, variando las curvas caudal-volumen en función, por ejemplo, del volumen de embalse o la longitud del aliviadero. El procedimiento propuesto se ilustra mediante su aplicación a dos casos de estudio. Finalmente, se ha abordado el tema del cálculo de las avenidas estacionales, cuestión fundamental a la hora de establecer la explotación de la presa, y que puede serlo también para estudiar la seguridad hidrológica de presas existentes. Sin embargo, el cálculo de estas avenidas es complejo y no está del todo claro hoy en día, y los procedimientos de cálculo habitualmente utilizados pueden presentar ciertos problemas. El cálculo en base al método estadístico de series parciales, o de máximos sobre un umbral, puede ser una alternativa válida que permite resolver esos problemas en aquellos casos en que la generación de las avenidas en las distintas estaciones se deba a un mismo tipo de evento. Se ha realizado un estudio con objeto de verificar si es adecuada en España la hipótesis de homogeneidad estadística de los datos de caudal de avenida correspondientes a distintas estaciones del año. Asimismo, se han analizado los periodos estacionales para los que es más apropiado realizar el estudio, cuestión de gran relevancia para garantizar que los resultados sean correctos, y se ha desarrollado un procedimiento sencillo para determinar el umbral de selección de los datos de tal manera que se garantice su independencia, una de las principales dificultades en la aplicación práctica de la técnica de las series parciales. Por otra parte, la aplicación practica de las leyes de frecuencia estacionales requiere interpretar correctamente el concepto de periodo de retorno para el caso estacional. Se propone un criterio para determinar los periodos de retorno estacionales de forma coherente con el periodo de retorno anual y con una distribución adecuada de la probabilidad entre las distintas estaciones. Por último, se expone un procedimiento para el cálculo de los caudales estacionales, ilustrándolo mediante su aplicación a un caso de estudio. The compare and develop of a methodology in order to improve the extreme flow estimation for dam hydrologic security has been developed. First, the work has been focused on the adjustment of maximum peak flows distribution functions from which to extrapolate values for high return periods. This has become a major issue as the adoption of stricter standards on dam hydrologic security involves estimation of high design return periods which entails great uncertainty. Accordingly, it is important to incorporate all available techniques for the estimation of design peak flows in order to reduce this uncertainty. Selection of the statistical model (distribution function and adjustment method) is also important since its ability to describe the sample and to make solid predictions for high return periods quantiles must be guaranteed. In order to provide practical application of previous methodologies, studies have been developed on a national scale with the aim of determining a regionalization scheme which features best results in terms of annual maximum peak flows for hydrologic characteristics of Spanish basins taking into account the length of available data. Applied methodology starts with the delimitation of regions taking into account basin’s physiographic and climatic characteristics and the variability of their statistical properties, and continues with their homogeneity testing. Then, a statistical model for maximum annual peak flows is selected with the best behaviour for the different regions in peninsular Spain in terms of describing sample data and making solid predictions for high return periods. This selection has been based, among others, on synthetic data series generation using Monte Carlo simulations and statistical analysis of results from distribution functions adjustment following different hypothesis. Secondly, the work has been focused on the analysis of the relationship between peak flow and volume and how to define design flood hydrographs based on this relationship which can be highly important for large volume reservoirs. However, commonly used hydrologic procedures do not take statistical dependence between these variables into account. A simple and sound method for statistical dependence characterization has been developed by the representation of a joint distribution function of maximum peak flow and volume which is based on marginal distribution function of peak flow and conditional distribution function of volume for a given peak flow. The last one is determined by a regional adjustment procedure of a log-normal distribution function. Practical application is proposed by a probabilistic estimation procedure based on stochastic generation of a large number of hydrographs. The use of this procedure for dam hydrologic security requires a proper interpretation of the return period concept applied to bivariate hydrologic data. A standard is proposed in which it is understood as the inverse of the probability of exceeding a determined reservoir level. When relating return period and hydrological variables the only design flood hydrograph changes into a family of hydrographs which generate the same maximum reservoir level and that are represented by a curve in the peak flow-volume two-dimensional space. This family of design flood hydrographs depends on the dam characteristics as for example reservoir volume or spillway length. Two study cases illustrate the application of the developed methodology. Finally, the work has been focused on the calculation of seasonal floods which are essential when determining the reservoir operation and which can be also fundamental in terms of analysing the hydrologic security of existing reservoirs. However, seasonal flood calculation is complex and nowadays it is not totally clear. Calculation procedures commonly used may present certain problems. Statistical partial duration series, or peaks over threshold method, can be an alternative approach for their calculation that allow to solve problems encountered when the same type of event is responsible of floods in different seasons. A study has been developed to verify the hypothesis of statistical homogeneity of peak flows for different seasons in Spain. Appropriate seasonal periods have been analyzed which is highly relevant to guarantee correct results. In addition, a simple procedure has been defined to determine data selection threshold on a way that ensures its independency which is one of the main difficulties in practical application of partial series. Moreover, practical application of seasonal frequency laws requires a correct interpretation of the concept of seasonal return period. A standard is proposed in order to determine seasonal return periods coherently with the annual return period and with an adequate seasonal probability distribution. Finally a methodology is proposed to calculate seasonal peak flows. A study case illustrates the application of the proposed methodology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El incremento de la contaminación acústica se ha convertido en un problema medioambiental lo cual ha generado un aumento en la demanda del aislamiento de los edificios para lograr el confort acústico. Existen métodos de medición de aislamiento acústico a ruido aéreo de fachadas bajo ensayo “in situ” pero no para techos. El objetivo de esta investigación consiste en determinar el aislamiento acústico de prototipos de techos ecológicos multicapas adaptando la metodología recomendada por normas internacionales. Se propusieron cuatro prototipos de techos con distintos materiales naturales como especies vegetales y sustratos de fibra de coco, superpuestos sobre un techo base liviano. Al sustrato se le varió su espesor de 10 a 20 cm, sus condiciones seca o húmeda y su densidad: 100%, 66% y 33% fibra de coco. En los resultados se determinó que las especies vegetales no aportaron aislamiento, pero al incrementar el espesor y densidad del sustrato mejoró el aislamiento sonoro. También se determinó que el aislamiento acústico en condición seca fue mejor que en condición húmeda. Se planteó una metodología para determinar el aislamiento acústico a ruido aéreo en techos bajo ensayo “in situ” empleando el método global con altavoz, ésta se estructuró en tres partes: la primera describe el módulo experimental y la plataforma tecnológica; la segunda aborda procedimientos para medir los niveles de presión sonora, niveles de ruido de fondo y los tiempos de reverberación, en bandas de frecuencia de tercios de octava; en la tercera se explica el cálculo de los promedios de estos parámetros, así como también la diferencia de niveles estandarizada, el índice de reducción sonora aparente con sus valores globales y su incertidumbre. Así mismo, se determinó un algoritmo de predicción del aislamiento acústico, analizando los valores obtenidos en las mediciones “in situ” como la Diferencia de nivel estandarizada ponderada y el Índice ponderado de reducción sonora, los cuales se relacionaron con el peso y el espesor de los materiales de las diferentes multicapas. A través de un análisis de regresión se establecieron modelos para predecir la Diferencia de nivel estandarizada y el Índice de reducción sonora aparente en bandas de octavas. Los resultados del modelo propuesto son cercanos a los datos medidos “in situ”. Por otra parte, se realizaron mediciones térmicas en un módulo experimental y otro de referencia en tres períodos del día. En el módulo experimental se construyeron los prototipos de techos ecológicos y en el de referencia un techo de construcción tradicional, se compararon los resultados de ambos módulos y su interacción con la temperatura exterior. Se detectó que las temperaturas internas del módulo experimental en condición seca tienden a mantener sus valores durante todo el día, en horas de la mañana sus valores son superiores a los del módulo de referencia y temperatura exterior. Al mediodía y en la tarde las temperaturas internas del módulo experimental son inferiores a las del módulo de referencia, incrementándose esta última a medida que aumenta temperatura exterior. Finalmente, a partir de las mediciones “in situ” se realizaron cuatro modelos de correlación acústica-térmica, los tres primeros relacionando la temperatura y el nivel de presión sonora en tres momentos del día, en la tarde se aprecia que a medida que aumenta la temperatura aumentan los niveles de presión sonora. En el cuarto modelo se estableció una correlación acústica-térmica entre la resistencia térmica de los materiales de las multicapas con su índice de reducción sonora, obteniéndose un coeficiente de correlación moderado. La presente investigación plantea retos desde el punto de vista ambiental, permite cuantificar el aislamiento acústico de los techos y mejorar la calidad de vida en áreas urbanas; el empleo de los materiales de procedencia local como los utilizados fomenta el respeto por la naturaleza y producen un menor impacto ambiental. ABSTRACT Sound contamination increase has generated a raise in insulation demand of buildings in order to achieve a sound comfort, and this has become into an environmental problem. There are measurements methods for air borne soundproofing in facades through “in situ” test but there are not for roofs. The purpose of this research is to determine sound insulation of multilayer green roof prototypes following the methodology suggested by international standards. Four prototypes of roofs with different types of vegetation and overlapped coconut fiber substrates over a light roof were proposed. Thickness of substrate varied from 10 to 20 cm, as well as its dry a humid condition and its density: 100%, 66% y 33% of coconut fiber. Results determined that vegetation did not contribute to insulation but when increasing substrate’s thickness and density, sound insulation was improved. Likewise, it was determined that sound insulation in dry condition was greater than in humid condition. A methodology to determine airborne sound insulation in roofs through “in situ” test using a speaker global method was stated. This was structured in three parts: the first part describes the experimental module and the technological platform; the second one establishes the procedures to measure sound pressure levels; levels of background noise and time of reverberation in frequency bands of thirds of octave, and in the third part, averages of these parameters, as well as the difference of standardized levels, the apparent sound reduction with its global values and uncertainty were calculated. Likewise, a prediction algorithm of sound insulation was determined by analyzing values obtained in “in-situ” measures such as the difference of weighted standardized level and the weighted index of sound reduction which they were related to weight and thickness of different multilayer materials. Models to predict the standardized level difference and the apparent sound reduction index in bands of octaves were established by a regression analysis. Results for the proposed model are close to data measured “in situ”. On the other hand, thermal measures were done in an experimental module, as well as in another as for reference in three periods of the day. Green prototypes roofs were built in the experimental module and a traditional roof were built in the reference one. Results of both modules were compared as well as the interaction with outside temperature. Internal temperatures of the experimental module in dry condition tend to keep their values throughout the day; in the morning, its values are higher than those of the reference module and external temperatures. Finally, four models of sound-thermal correlation were done from measures “in situ”. The first three were related to temperature and sound pressure level in three moments of the day. In the afternoon, it is observed that when temperature increases, sound pressure levels increases too. In the fourth model, a sound and thermal correlation was established between thermal resistance of multilayer materials with their sound reduction index, and a moderated correlation coefficient was obtained. This research poses challenges from the environmental point of view, and it allows quantifying sound insulation of roofs as well as improving quality of life in urban areas; the use of local vegetation promotes respect for nature and it produces a smaller environmental impact as well.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral contribuye al problema del diagnóstico autonómico de fallos en redes de telecomunicación. En las redes de telecomunicación actuales, las operadoras realizan tareas de diagnóstico de forma manual. Dichas operaciones deben ser llevadas a cabo por ingenieros altamente cualificados que cada vez tienen más dificultades a la hora de gestionar debidamente el crecimiento exponencial de la red tanto en tamaño, complejidad y heterogeneidad. Además, el advenimiento del Internet del Futuro hace que la demanda de sistemas que simplifiquen y automaticen la gestión de las redes de telecomunicación se haya incrementado en los últimos años. Para extraer el conocimiento necesario para desarrollar las soluciones propuestas y facilitar su adopción por los operadores de red, se propone una metodología de pruebas de aceptación para sistemas multi-agente enfocada en simplificar la comunicación entre los diferentes grupos de trabajo involucrados en todo proyecto de desarrollo software: clientes y desarrolladores. Para contribuir a la solución del problema del diagnóstico autonómico de fallos, se propone una arquitectura de agente capaz de diagnosticar fallos en redes de telecomunicación de manera autónoma. Dicha arquitectura extiende el modelo de agente Belief-Desire- Intention (BDI) con diferentes modelos de diagnóstico que gestionan las diferentes sub-tareas del proceso. La arquitectura propuesta combina diferentes técnicas de razonamiento para alcanzar su propósito gracias a un modelo estructural de la red, que usa razonamiento basado en ontologías, y un modelo causal de fallos, que usa razonamiento Bayesiano para gestionar debidamente la incertidumbre del proceso de diagnóstico. Para asegurar la adecuación de la arquitectura propuesta en situaciones de gran complejidad y heterogeneidad, se propone un marco de argumentación que permite diagnosticar a agentes que estén ejecutando en dominios federados. Para la aplicación de este marco en un sistema multi-agente, se propone un protocolo de coordinación en el que los agentes dialogan hasta alcanzar una conclusión para un caso de diagnóstico concreto. Como trabajos futuros, se consideran la extensión de la arquitectura para abordar otros problemas de gestión como el auto-descubrimiento o la auto-optimización, el uso de técnicas de reputación dentro del marco de argumentación para mejorar la extensibilidad del sistema de diagnóstico en entornos federados y la aplicación de las arquitecturas propuestas en las arquitecturas de red emergentes, como SDN, que ofrecen mayor capacidad de interacción con la red. ABSTRACT This PhD thesis contributes to the problem of autonomic fault diagnosis of telecommunication networks. Nowadays, in telecommunication networks, operators perform manual diagnosis tasks. Those operations must be carried out by high skilled network engineers which have increasing difficulties to properly manage the growing of those networks, both in size, complexity and heterogeneity. Moreover, the advent of the Future Internet makes the demand of solutions which simplifies and automates the telecommunication network management has been increased in recent years. To collect the domain knowledge required to developed the proposed solutions and to simplify its adoption by the operators, an agile testing methodology is defined for multiagent systems. This methodology is focused on the communication gap between the different work groups involved in any software development project, stakeholders and developers. To contribute to overcoming the problem of autonomic fault diagnosis, an agent architecture for fault diagnosis of telecommunication networks is defined. That architecture extends the Belief-Desire-Intention (BDI) agent model with different diagnostic models which handle the different subtasks of the process. The proposed architecture combines different reasoning techniques to achieve its objective using a structural model of the network, which uses ontology-based reasoning, and a causal model, which uses Bayesian reasoning to properly handle the uncertainty of the diagnosis process. To ensure the suitability of the proposed architecture in complex and heterogeneous environments, an argumentation framework is defined. This framework allows agents to perform fault diagnosis in federated domains. To apply this framework in a multi-agent system, a coordination protocol is defined. This protocol is used by agents to dialogue until a reliable conclusion for a specific diagnosis case is reached. Future work comprises the further extension of the agent architecture to approach other managements problems, such as self-discovery or self-optimisation; the application of reputation techniques in the argumentation framework to improve the extensibility of the diagnostic system in federated domains; and the application of the proposed agent architecture in emergent networking architectures, such as SDN, which offers new capabilities of control for the network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

México es de los pocos países en el mundo que ha realizado dos grandes programas para la construcción de autopistas en colaboración con el sector privado. El primero, fue realizado entre 1989 y 1994, con resultados adversos por el mal diseño del esquema de concesiones; y, el segundo con mejores resultados, en operación desde 2003 mediante nuevos modelos de asociación público-privada (APP). El objetivo de la presente investigación es estudiar los modelos de asociación público-privada empleados en México para la provisión de infraestructura carretera, realizando el análisis y la evaluación de la distribución de riesgos entre el sector público y privado en cada uno de los modelos con el propósito de establecer una propuesta de reasignación de riesgos para disminuir el costo global y la incertidumbre de los proyectos. En la primera parte se describe el estado actual del conocimiento de las asociaciones público-privadas para desarrollar proyectos de infraestructura, incluyendo los antecedentes, la definición y las tipologías de los esquemas APP, así como la práctica internacional de programas como el modelo británico Private Finance Initiative (PFI), resultados de proyectos en la Unión Europea y programas APP en otros países. También, se destaca la participación del sector privado en el financiamiento de la infraestructura del transporte de México en la década de 1990. En los capítulos centrales se aborda el estudio de los modelos APP que se han utilizado en el país en la construcción de la red de carreteras de alta capacidad. Se presentan las características y los resultados del programa de autopistas 1989-94, así como el rescate financiero y las medidas de reestructuración de los proyectos concesionados, aspectos que obligaron a las autoridades mexicanas a cambiar la normatividad para la aprobación de los proyectos según su rentabilidad, modificar la legislación de caminos y diseñar nuevos esquemas de colaboración entre el gobierno y el sector privado. Los nuevos modelos APP vigentes desde 2003 son: nuevo modelo de concesiones para desarrollar autopistas de peaje, modelo de proyectos de prestación de servicios (peaje sombra) para modernizar carreteras existentes y modelo de aprovechamiento de activos para concesionar autopistas de peaje en operación a cambio de un pago. De estos modelos se realizaron estudios de caso en los que se determinan medidas de desempeño operativo (niveles de tráfico, costos y plazos de construcción) y rentabilidad financiera (tasa interna de retorno y valor presente neto). En la última parte se efectúa la identificación, análisis y evaluación de los riesgos que afectaron los costos, el tiempo de ejecución y la rentabilidad de los proyectos de ambos programas. Entre los factores de riesgo analizados se encontró que los más importantes fueron: las condiciones macroeconómicas del país (inflación, producto interno bruto, tipo de cambio y tasa de interés), deficiencias en la planificación de los proyectos (diseño, derecho de vía, tarifas, permisos y estimación del tránsito) y aportaciones públicas en forma de obra. Mexico is one of the few countries in the world that has developed two major programs for highway construction in collaboration with the private sector. The first one was carried out between 1989 and 1994 with adverse outcomes due to the wrong design of concession schemes; and, the second one, in operation since 2003, through new public-private partnership models (PPPs). The objective of this research is to study public-private partnership models used in Mexico for road infrastructure provision, performing the analysis and evaluation of risk’s distribution between the public and the private sector in each model in order to draw up a proposal for risk’s allocation to reduce the total cost and the uncertainty of projects. The first part describes the current state of knowledge in public-private partnership to develop infrastructure projects, including the history, definition and types of PPP models, as well as international practice of programs such as the British Private Finance Initiative (PFI) model, results in the European Union and PPP programs in other countries. Also, it stands out the private sector participation in financing of Mexico’s transport infrastructure in 1990s. The next chapters present the study of public-private partnerships models that have been used in the country in the construction of the high capacity road network. Characteristics and outcomes of the highway program 1989-94 are presented, as well as the financial bailout and restructuring measures of the concession projects, aspects that forced the Mexican authorities to change projects regulations, improve road’s legislation and design new schemes of cooperation between the Government and the private sector. The new PPP models since 2003 are: concession model to develop toll highways, private service contracts model (shadow toll) to modernize existing roads and highway assets model for the concession of toll roads in operation in exchange for a payment. These models were analyzed using case studies in which measures of operational performance (levels of traffic, costs and construction schedules) and financial profitability (internal rate of return and net present value) are determined. In the last part, the analysis and assessment of risks that affect costs, execution time and profitability of the projects are carried out, for both programs. Among the risk factors analyzed, the following ones were found to be the most important: country macroeconomic conditions (inflation, gross domestic product, exchange rate and interest rate), deficiencies in projects planning (design, right of way, tolls, permits and traffic estimation) and public contributions in the form of construction works.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La meta de intercambiabilidad de piezas establecida en los sistemas de producción del siglo XIX, es ampliada en el último cuarto del siglo pasado para lograr la capacidad de fabricación de varios tipos de producto en un mismo sistema de manufactura, requerimiento impulsado por la incertidumbre del mercado. Esta incertidumbre conduce a plantear la flexibilidad como característica importante en el sistema de producción. La presente tesis se ubica en el problema de integración del sistema informático (SI) con el equipo de producción (EP) en la búsqueda de una solución que coadyuve a satisfacer los requerimientos de flexibilidad impuestas por las condiciones actuales de mercado. Se describen antecedentes de los sistemas de producción actuales y del concepto de flexibilidad. Se propone una clasificación compacta y práctica de los tipos de flexibilidad relevantes en el problema de integración SI-EP, con la finalidad de ubicar el significado de flexibilidad en el área de interés. Así mismo, las variables a manejar en la solución son clasificadas en cuatro tipos: Medio físico, lenguajes de programación y controlador, naturaleza del equipo y componentes de acoplamiento. Por otra parte, la característica de reusabilidad como un efecto importante y deseable de un sistema flexible, es planteada como meta en la solución propuesta no solo a nivel aplicación del sistema sino también a nivel de reuso de conceptos de diseño. Se propone un esquema de referencia en tres niveles de abstracción, que permita manejar y reutilizar en forma organizada el conocimiento del dominio de aplicación (integración SI-EP), el desarrollo de sistemas de aplicación genérica así como también la aplicación del mismo en un caso particular. Un análisis del concepto de acoplamiento débil (AD) es utilizado como base en la solución propuesta al problema de integración SI-EP. El desarrollo inicia identificando condiciones para la existencia del acoplamiento débil, compensadores para soportar la operación del sistema bajo AD y los efectos que ocasionan en el sistema informático los cambios en el conjunto de equipos de producción. Así mismo, se introducen como componentes principales del acoplamiento los componentes tecnológico, tarea y rol, a utilizar en el análisis de los requerimientos para el desarrollo de una solución de AD entre SI-EP. La estructura de tres niveles del esquema de referencia propuesto surge del análisis del significado de conceptos de referencia comúnmente reportados en la literatura, tales como arquitectura de referencia, modelo de referencia, marco de trabajo, entre otros. Se presenta un análisis de su significado como base para la definición de cada uno de los niveles de la estructura del esquema, pretendiendo con ello evitar la ambigüedad existente debido al uso indistinto de tales conceptos en la literatura revisada. Por otra parte, la relación entre niveles es definida tomando como base la estructura de cuatro capas planteada en el área de modelado de datos. La arquitectura de referencia, implementada en el primer nivel del esquema propuesto es utilizada como base para el desarrollo del modelo de referencia o marco de trabajo para el acoplamiento débil entre el SI y el EP. La solución propuesta es validada en la integración de un sistema informático de coordinación de flujo y procesamiento de pieza con un conjunto variable de equipos de diferentes tipos, naturaleza y fabricantes. En el ejercicio de validación se abordaron diferentes estándares y técnicas comúnmente empleadas como soporte al problema de integración a nivel componente tecnológico, tales como herramientas de cero configuración (ejemplo: plug and play), estándar OPC-UA, colas de mensajes y servicios web, permitiendo así ubicar el apoyo de estas técnicas en el ámbito del componente tecnológico y su relación con los otros componentes de acoplamiento: tarea y rol. ABSTRACT The interchangeability of parts, as a goal of manufacturing systems at the nineteenth century, is extended into the present to achieve the ability to manufacture various types of products in the same manufacturing system, requirement associated with market uncertainty. This uncertainty raises flexibility as an important feature in the production system. This thesis addresses the problem regarding integration of software system (SS) and the set of production equipment (PE); looking for a solution that contributes to satisfy the requirements of flexibility that the current market conditions impose on manufacturing, particularly to the production floor. Antecedents to actual production systems as well as the concept of flexibility are described and analyzed in detail. A practical and compact classification of flexibility types of relevance to the integration SS-EP problem is proposed with the aim to delimit the meaning of flexibility regarding the area of interest. Also, a classification for the variables involved in the integration problem is presented into four types: Physical media, programming and controller languages, equipment nature and coupling components. In addition, the characteristic of reusability that has been seen as an important and desirable effect of a flexible system is taken as a goal in the proposed solution, not only at system implementation level but also at system design level. In this direction, a reference scheme is proposed consisting of three abstraction levels to systematically support management and reuse of domain knowledge (SS-PE), development of a generic system as well as its application in a particular case. The concept of loose coupling is used as a basis in the development of the proposed solution to the problem of integration SS-EP. The first step of the development process consists of an analysis of the loose coupled concept, identifying conditions for its existence, compensators for system operation under loose coupling conditions as well as effects in the software system caused by modification in the set of production equipment. In addition coupling components: technological, task and role are introduced as main components to support the analysis of requirements regarding loose coupling of SS-PE. The three tier structure of the proposed reference scheme emerges from the analysis of reference concepts commonly reported in the literature, such as reference architecture, reference model and framework, among others. An analysis of these concepts is used as a basis for definition of the structure levels of the proposed scheme, trying to avoid the ambiguity due to the indiscriminate use of such concepts in the reviewed literature. In addition, the relation between adjacent levels of the structure is defined based on the four tiers structure commonly used in the data modelling area. The reference architecture is located as the first level in the structure of the proposed reference scheme and it is utilized as a basis for the development of the reference model or loose coupling framework for SS-PE integration. The proposed solution is validated by integrating a software system (process and piece flow coordination system) with a variable set of production equipment including different types, nature and manufacturers of equipment. Furthermore, in this validation exercise, different standards and techniques commonly used have been taken into account to support the issue of technology coupling component, such as tools for zero configuration (i.e. Plug and Play), message queues, OPC-UA standard, and web services. Through this part of the validation exercise, these integration tools are located as a part of the technological component and they are related to the role and task components of coupling.