281 resultados para Enginyeria de costes
Resumo:
A día de hoy, a pesar de todos los avances médicos y tecnológicos, no existe una prueba capaz de diagnosticar el Síndrome de Apneas-Hipopneas durante el Sueño (SAHS) o Síndrome de Apnea del Sueño (SAS), con una prueba in-situ rápida y eficaz. La detección de este trastorno, se lleva a cabo con una prueba larga y costosa, en la que el paciente debe pasar una noche hospitalizado y monitorizado en todo momento. Con el fin de minimizar tiempo y costes de diagnóstico de esta patología, el Grupo de Aplicaciones de Procesado de Señales (GAPS) lleva años trabajando en el desarrollo de una herramienta de apoyo, basada en el análisis de la señal de voz, que proporcione una alternativa a los métodos de diagnóstico actuales. En definitiva, desarrollar una prueba in-situ capaz de diagnosticar esta enfermedad. El Síndrome de Apnea del Sueño (SAS) es un trastorno muy prevalente y con muy bajo índice de casos diagnosticados. Se define como un cuadro de somnolencia excesiva, trastornos cognitivos-conductuales, respiratorios, cardiacos, metabólicos o inflamatorios secundarios a episodios repetidos de obstrucción de la vía aérea superior (VAS) durante el sueño. Esta obstrucción se produce por el colapso de las partes blandas de la garganta, impidiendo una correcta respiración, y como consecuencia, interrupciones del sueño no consciente e hipoxia. En este contexto se ha desarrollado un Proyecto de Fin de Grado conjunto las Srtas. Laura Soria Simón y Bárbara Recarte Steegman. Se estructura en tres bloques: análisis perceptual conjunto, estudio de técnicas de clasificación (Laura) y estudio acústico (Bárbara). Los resultados y conclusiones correspondientes al estudio de las técnicas de clasificación de los descriptores perceptuales y global del proyecto, se recogen en el presente documento.
Resumo:
En la actualidad, la gestión de embalses para el control de avenidas se realiza, comúnmente, utilizando modelos de simulación. Esto se debe, principalmente, a su facilidad de uso en tiempo real por parte del operador de la presa. Se han desarrollado modelos de optimización de la gestión del embalse que, aunque mejoran los resultados de los modelos de simulación, su aplicación en tiempo real se hace muy difícil o simplemente inviable, pues está limitada al conocimiento de la avenida futura que entra al embalse antes de tomar la decisión de vertido. Por esta razón, se ha planteado el objetivo de desarrollar un modelo de gestión de embalses en avenidas que incorpore las ventajas de un modelo de optimización y que sea de fácil uso en tiempo real por parte del gestor de la presa. Para ello, se construyó un modelo de red Bayesiana que representa los procesos de la cuenca vertiente y del embalse y, que aprende de casos generados sintéticamente mediante un modelo hidrológico agregado y un modelo de optimización de la gestión del embalse. En una primera etapa, se generó un gran número de episodios sintéticos de avenida utilizando el método de Monte Carlo, para obtener las lluvias, y un modelo agregado compuesto de transformación lluvia- escorrentía, para obtener los hidrogramas de avenida. Posteriormente, se utilizaron las series obtenidas como señales de entrada al modelo de gestión de embalses PLEM, que optimiza una función objetivo de costes mediante programación lineal entera mixta, generando igual número de eventos óptimos de caudal vertido y de evolución de niveles en el embalse. Los episodios simulados fueron usados para entrenar y evaluar dos modelos de red Bayesiana, uno que pronostica el caudal de entrada al embalse, y otro que predice el caudal vertido, ambos en un horizonte de tiempo que va desde una a cinco horas, en intervalos de una hora. En el caso de la red Bayesiana hidrológica, el caudal de entrada que se elige es el promedio de la distribución de probabilidad de pronóstico. En el caso de la red Bayesiana hidráulica, debido al comportamiento marcadamente no lineal de este proceso y a que la red Bayesiana devuelve un rango de posibles valores de caudal vertido, se ha desarrollado una metodología para seleccionar un único valor, que facilite el trabajo del operador de la presa. Esta metodología consiste en probar diversas estrategias propuestas, que incluyen zonificaciones y alternativas de selección de un único valor de caudal vertido en cada zonificación, a un conjunto suficiente de episodios sintéticos. Los resultados de cada estrategia se compararon con el método MEV, seleccionándose las estrategias que mejoran los resultados del MEV, en cuanto al caudal máximo vertido y el nivel máximo alcanzado por el embalse, cualquiera de las cuales puede usarse por el operador de la presa en tiempo real para el embalse de estudio (Talave). La metodología propuesta podría aplicarse a cualquier embalse aislado y, de esta manera, obtener, para ese embalse particular, diversas estrategias que mejoran los resultados del MEV. Finalmente, a modo de ejemplo, se ha aplicado la metodología a una avenida sintética, obteniendo el caudal vertido y el nivel del embalse en cada intervalo de tiempo, y se ha aplicado el modelo MIGEL para obtener en cada instante la configuración de apertura de los órganos de desagüe que evacuarán el caudal. Currently, the dam operator for the management of dams uses simulation models during flood events, mainly due to its ease of use in real time. Some models have been developed to optimize the management of the reservoir to improve the results of simulation models. However, real-time application becomes very difficult or simply unworkable, because the decision to discharge depends on the unknown future avenue entering the reservoir. For this reason, the main goal is to develop a model of reservoir management at avenues that incorporates the advantages of an optimization model. At the same time, it should be easy to use in real-time by the dam manager. For this purpose, a Bayesian network model has been developed to represent the processes of the watershed and reservoir. This model learns from cases generated synthetically by a hydrological model and an optimization model for managing the reservoir. In a first stage, a large number of synthetic flood events was generated using the Monte Carlo method, for rain, and rain-added processing model composed of runoff for the flood hydrographs. Subsequently, the series obtained were used as input signals to the reservoir management model PLEM that optimizes a target cost function using mixed integer linear programming. As a result, many optimal discharge rate events and water levels in the reservoir levels were generated. The simulated events were used to train and test two models of Bayesian network. The first one predicts the flow into the reservoir, and the second predicts the discharge flow. They work in a time horizon ranging from one to five hours, in intervals of an hour. In the case of hydrological Bayesian network, the chosen inflow is the average of the probability distribution forecast. In the case of hydraulic Bayesian network the highly non-linear behavior of this process results on a range of possible values of discharge flow. A methodology to select a single value has been developed to facilitate the dam operator work. This methodology tests various strategies proposed. They include zoning and alternative selection of a single value in each discharge rate zoning from a sufficient set of synthetic episodes. The results of each strategy are compared with the MEV method. The strategies that improve the outcomes of MEV are selected and can be used by the dam operator in real time applied to the reservoir study case (Talave). The methodology could be applied to any single reservoir and, thus, obtain, for the particular reservoir, various strategies that improve results from MEV. Finally, the methodology has been applied to a synthetic flood, obtaining the discharge flow and the reservoir level in each time interval. The open configuration floodgates to evacuate the flow at each interval have been obtained applying the MIGEL model.
Resumo:
La Arquitectura de la Red de las Cosas (IoT) hace referencia a una red de objetos cotidianos interconectados digitalmente. Gracias a IoT, no sólo podemos almacenar, analizar e intercambiar información y datos con dichos objetos, sino que además ellos pueden tener la capacidad de interactuar entre ellos de forma autónoma. Para ellos, los objetos cotidianos disponen de actuadores y sensores que permiten modificar su comportamiento y conocer su estado y propiedades, respectivamente. La gestión de IoT combina todas las funcionalidades necesarias para coordinar un sistema con una Arquitectura de la Red de las Cosas. Una buena gestión del sistema puede reducir costes, mejorar la asistencia a problemas de uso inesperado, corregir fallos y permitir la escalabilidad del sistema permitiéndole la incorporación de nuevos módulos y funcionalidades. En este Proyecto Fin de Grado se realizará primero un análisis de los aspectos de IoT relacionados con la gestión de dispositivos integrados en la Arquitectura de la Red de las Cosas. Después se procederá a realizar la especificación y el diseño de plataforma de gestión. Y finalmente se desarrollarán un caso de uso que permita validar algunos elementos de la plataforma diseñada. Se realizarán distintas pruebas para comprobar una correcta gestión de los dispositivos como el correcto funcionamiento del diseño previamente establecido, por medio, entre otras, de las siguientes operaciones: listar los elementos conectados, posibilidad de obtener y/o modificar dichos elementos (su configuración y su estado) o presentar informes y comprobar el estado en el que se encuentran los dispositivos: operativos o no operativos. De tal forma, en esta memoria se plasma como se ha desarrollado la gestión de dispositivos integrados en un sistema con Arquitectura de la Red de las Cosas utilizando tanto plataformas Intel Galileo como Arduino. ABSTRACT. The Architecture of the Internet of Things (IoT) refers to a network of digitally interconnected everyday objects. With IoT, not only we can store, analyze and exchange information and data with objects, but they can also autonomously interact among them. To accomplish that, the everyday objects are made of actuators and sensors that let us act on their behavior and know their state and properties, respectively. Management of IoT combines all the functionalities needed for coordinating a system with an Architecture of the Internet of Things. A good management system can reduce faults, improve assistance to reduce unexpected problems, correct errors and allow the scalability of the system, allowing the addition of new modules and functionalities. In this Degree Final Project, an analysis about aspects of IoT related to the management of devices integrated into the Architecture of the Internet of things is carried out first. Then, the specification and the design of the management platform is made. Finally, a use case will be developed to validate some elements of the designed platform. Several tests will be run to check the correct management of the devices such as the proper functioning of the design previously established, requesting, among others, the following set of operations: list the connected elements, possibility to obtain or modify these elements (their configuration and their state) or reporting and checking which devices are operating or non-operating. So, in this memory it is explained how it has been carried out the management of devices integrated in a system with an Architecture of the Internet of Things (IoT), based on the Intel Galileo and Arduino platforms.
Resumo:
En los últimos años, el Ge ha ganado de nuevo atención con la finalidad de ser integrado en el seno de las existentes tecnologías de microelectrónica. Aunque no se le considera como un canddato capaz de reemplazar completamente al Si en el futuro próximo, probalemente servirá como un excelente complemento para aumentar las propiedades eléctricas en dispositivos futuros, especialmente debido a su alta movilidad de portadores. Esta integración requiere de un avance significativo del estado del arte en los procesos de fabricado. Técnicas de simulación, como los algoritmos de Monte Carlo cinético (KMC), proporcionan un ambiente atractivo para llevar a cabo investigación y desarrollo en este campo, especialmente en términos de costes en tiempo y financiación. En este estudio se han usado, por primera vez, técnicas de KMC con el fin entender el procesado “front-end” de Ge en su fabricación, específicamente la acumulación de dañado y amorfización producidas por implantación iónica y el crecimiento epitaxial en fase sólida (SPER) de las capas amorfizadas. Primero, simulaciones de aproximación de clisiones binarias (BCA) son usadas para calcular el dañado causado por cada ión. La evolución de este dañado en el tiempo se simula usando KMC sin red, o de objetos (OKMC) en el que sólamente se consideran los defectos. El SPER se simula a través de una aproximación KMC de red (LKMC), siendo capaz de seguir la evolución de los átomos de la red que forman la intercara amorfo/cristalina. Con el modelo de amorfización desarrollado a lo largo de este trabajo, implementado en un simulador multi-material, se pueden simular todos estos procesos. Ha sido posible entender la acumulación de dañado, desde la generación de defectos puntuales hasta la formación completa de capas amorfas. Esta acumulación ocurre en tres regímenes bien diferenciados, empezando con un ritmo lento de formación de regiones de dañado, seguido por una rápida relajación local de ciertas áreas en la fase amorfa donde ambas fases, amorfa y cristalina, coexisten, para terminar en la amorfización completa de capas extensas, donde satura el ritmo de acumulación. Dicha transición ocurre cuando la concentración de dañado supera cierto valor límite, el cual es independiente de las condiciones de implantación. Cuando se implantan los iones a temperaturas relativamente altas, el recocido dinámico cura el dañado previamente introducido y se establece una competición entre la generación de dañado y su disolución. Estos efectos se vuelven especialmente importantes para iones ligeros, como el B, el cual crea dañado más diluido, pequeño y distribuido de manera diferente que el causado por la implantación de iones más pesados, como el Ge. Esta descripción reproduce satisfactoriamente la cantidad de dañado y la extensión de las capas amorfas causadas por implantación iónica reportadas en la bibliografía. La velocidad de recristalización de la muestra previamente amorfizada depende fuertemente de la orientación del sustrato. El modelo LKMC presentado ha sido capaz de explicar estas diferencias entre orientaciones a través de un simple modelo, dominado por una única energía de activación y diferentes prefactores en las frecuencias de SPER dependiendo de las configuraciones de vecinos de los átomos que recristalizan. La formación de maclas aparece como una consecuencia de esta descripción, y es predominante en sustratos crecidos en la orientación (111)Ge. Este modelo es capaz de reproducir resultados experimentales para diferentes orientaciones, temperaturas y tiempos de evolución de la intercara amorfo/cristalina reportados por diferentes autores. Las parametrizaciones preliminares realizadas de los tensores de activación de tensiones son también capaces de proveer una buena correlación entre las simulaciones y los resultados experimentales de velocidad de SPER a diferentes temperaturas bajo una presión hidrostática aplicada. Los estudios presentados en esta tesis han ayudado a alcanzar un mejor entendimiento de los mecanismos de producción de dañado, su evolución, amorfización y SPER para Ge, además de servir como una útil herramienta para continuar el trabajo en este campo. In the recent years, Ge has regained attention to be integrated into existing microelectronic technologies. Even though it is not thought to be a feasible full replacement to Si in the near future, it will likely serve as an excellent complement to enhance electrical properties in future devices, specially due to its high carrier mobilities. This integration requires a significant upgrade of the state-of-the-art of regular manufacturing processes. Simulation techniques, such as kinetic Monte Carlo (KMC) algorithms, provide an appealing environment to research and innovation in the field, specially in terms of time and funding costs. In the present study, KMC techniques are used, for the first time, to understand Ge front-end processing, specifically damage accumulation and amorphization produced by ion implantation and Solid Phase Epitaxial Regrowth (SPER) of the amorphized layers. First, Binary Collision Approximation (BCA) simulations are used to calculate the damage caused by every ion. The evolution of this damage over time is simulated using non-lattice, or Object, KMC (OKMC) in which only defects are considered. SPER is simulated through a Lattice KMC (LKMC) approach, being able to follow the evolution of the lattice atoms forming the amorphous/crystalline interface. With the amorphization model developed in this work, implemented into a multi-material process simulator, all these processes can be simulated. It has been possible to understand damage accumulation, from point defect generation up to full amorphous layers formation. This accumulation occurs in three differentiated regimes, starting at a slow formation rate of the damage regions, followed by a fast local relaxation of areas into the amorphous phase where both crystalline and amorphous phases coexist, ending in full amorphization of extended layers, where the accumulation rate saturates. This transition occurs when the damage concentration overcomes a certain threshold value, which is independent of the implantation conditions. When implanting ions at relatively high temperatures, dynamic annealing takes place, healing the previously induced damage and establishing a competition between damage generation and its dissolution. These effects become specially important for light ions, as B, for which the created damage is more diluted, smaller and differently distributed than that caused by implanting heavier ions, as Ge. This description successfully reproduces damage quantity and extension of amorphous layers caused by means of ion implantation reported in the literature. Recrystallization velocity of the previously amorphized sample strongly depends on the substrate orientation. The presented LKMC model has been able to explain these differences between orientations through a simple model, dominated by one only activation energy and different prefactors for the SPER rates depending on the neighboring configuration of the recrystallizing atoms. Twin defects formation appears as a consequence of this description, and are predominant for (111)Ge oriented grown substrates. This model is able to reproduce experimental results for different orientations, temperatures and times of evolution of the amorphous/crystalline interface reported by different authors. Preliminary parameterizations for the activation strain tensors are able to also provide a good match between simulations and reported experimental results for SPER velocities at different temperatures under the appliance of hydrostatic pressure. The studies presented in this thesis have helped to achieve a greater understanding of damage generation, evolution, amorphization and SPER mechanisms in Ge, and also provide a useful tool to continue research in this field.
Resumo:
El estudio de la calidad de servicio en transporte público ha tenido distintos enfoques, tanto en la investigación como en sus aplicaciones prácticas, tales como el desarrollo del método SERVQUAL, los proyectos QUATTRO y EQUIP de la Comisión Europea, el Transit Capacity and Quality of Service Manual y finalmente el estándar EN 13816, siendo la consideración principal la calidad desde el punto de vista del usuario, es decir, la calidad percibida, cuyo objetivo en la práctica trata de obtener un Índice de Satisfacción del Cliente como medida de la calidad global. Esta aproximación deja de lado aspectos tanto sobre calidad suministrada como sobre los suministradores del servicio, las administraciones y los operadores, particularmente en cuanto a las implicaciones económicas. El objetivo principal de la presente tesis es la estimación del impacto económico real de la mejora de atributos de calidad para un operador de autobús urbano. En el capítulo 2, se lleva a cabo un análisis del estado del arte sobre el estudio de la calidad, tanto de los métodos de estudio, como de su aplicación al campo de transporte público, y, específicamente, del estudio de costes. En los capítulos 3 y 4 se propone la aplicación de la metodología ABC (Activity Based Costing) para el caso de un contrato de servicio de transporte público en autobús en la Comunidad de Madrid, concretamente la conexión de Tres Cantos. Para ello se utilizan datos de encuestas de calidad esperada y percibida por los usuarios, junto con información económica y de actividad, así como entrevistas a personal de la empresa, conformando todo ello una metodología compacta de investigación y análisis. Los resultados de las encuestas y los análisis posteriores identificaron la frecuencia de servicio, la puntualidad de los autobuses y la seguridad de la conducción como las tres variables mas importantes desde el punto de vista del usuario, y ha sido en referencia a estas tres variables sobre las que se ha desarrollado la aplicación del método ABC contenida en el capítulo 5. Los resultados descritos en el capítulo 6 muestran la consistencia y la aplicabilidad de esta metodología, superando las simplificaciones de los procedimientos tradicionales contables. En cuanto a los resultados obtenidos, se ha comprobado que una aproximación tradicional basada en costes por kilometro puede llegar a sobrevalorar los costes asociados a mejoras de calidad hasta tres veces los costes calculados según el método ABC. Finalmente en el capítulo 7 se recogen las principales conclusiones y se apuntan algunas líneas futuras de investigación basadas en mejoras sobre la aplicación y transferibilidad de los resultados. The study of service quality and its implication for transport contracts has several approaches in research and practical applications, such as the development of the SERVQUAL method, the UE QUATTRO and EQUIP research projects, the Transit Capacity and Quality of Service Manual and finally the EN 13816 standard. In all cases the main stream is the consideration of quality from the user’s point of view, thus obtaining a Customer Satisfaction Index as a measurement of the overall service quality. This approach ignores quality consequences for transport providers, authorities and operators, particularly economic implications. The main target of this thesis is to estimate the real economic impact of improving quality attributes for a bus operator. Chapter 2 includes a thorough analysis of the state of the art of general methodologies on service quality, their applications for public transport, and particularly for quality costing. In chapters 3 and 4, the Activity Based Costing (ABC) methodology is proposed for a suburban bus contract in Madrid, Tres Cantos. Perceived and expected quality surveys are used together with economic and performance information, as well as interviews with key staff from the operator. The whole set of surveys, interviews and ABC methodology puts together a comprehensive approach for analysis and research. Surveys and subsequent analysis shows service headway, punctuality and safety as the three most important service attributes from the user’s point of view. The proposed methodology has been applied to these three variables, as described in chapter 5. Results obtained in chapter 6 show the consistency and practicality of this methodology, overcoming simplifications from traditional accounting procedures. According to the latter, a calculation of costs based on mileage can overvalue quality improvements up to three times the results following ABC methodology. Finally, in chapter 7, the main conclusions are highlighted and some future research is suggested in terms of application improvements as well as results transferability.
Resumo:
Durante las últimas décadas el objetivo principal de la silvicultura y la gestión forestal en Europa ha pasado de ser la producción de madera a ser la gestión sostenible de los ecosistemas, por lo que se deben considerar todos los bienes y servicios que proporcionan los bosques. En consecuencia, es necesario contar con información forestal periódica de diversos indicadores forestales a nivel europeo para apoyar el desarrollo y la implementación de políticas medioambientales y que se realice una gestión adecuada. Para ello, se requiere un seguimiento intensivo sobre el estado de los bosques, por lo que los Inventarios Forestales Nacionales (IFN), (principal fuente de información forestal a gran escala), han aumentado el número de variables muestreadas para cumplir con los crecientes requerimientos de información. Sin embargo, las estimaciones proporcionadas por los diferentes países no son fácilmente comparables debido a las diferencias en las definiciones, los diseños de muestreo, las variables medidas y los protocolos de medición. Por esto, la armonización de los datos que proporcionan los diferentes países es fundamental para la contar con una información forestal sólida y fiable en la Unión europea (UE). La presente tesis tiene dos objetivos principales: (i) establecer el diseño de una metodología para evaluar la biodiversidad forestal en el marco del Inventario forestal nacional de España teniendo en cuenta las diferentes iniciativas nacionales e internacionales, con el objetivo de producir estimaciones comparables con las de otros países de la UE y (ii) armonizar los indicadores más relevantes para satisfacer los requerimientos nacionales e internacionales. Como consecuencia del estudio realizado para alcanzar el primer objetivo, la metodología diseñada para estimar la biodiversidad fue adoptada por el Tercer Inventario forestal nacional. Ésta se componía de indicadores agrupados en: cobertura del suelo, composición de árboles y especies de arbustos, riqueza de especies herbáceas y helechos, especies amenazadas, estructura, madera muerta, y líquenes epífitos. Tras el análisis del diseño metodológico y de los datos proporcionados, se observó la conveniencia de modificarla con el fin de optimizar los costes, viabilidad, calidad y cantidad de los datos registrados. En consecuencia, en el Cuarto Inventario Forestal Nacional se aplica una metodología modificada, puesto que se eliminó el muestreo de especies herbáceas y helechos, de líquenes epífitos y de especies amenazadas, se modificaron los protocolos de la toma de datos de estructura y madera muerta y se añadió el muestreo de especies invasoras, edad, ramoneo y grado de naturalidad de la masa. En lo que se refiere al segundo objetivo, se ha avanzado en la armonización de tres grupos de variables considerados como relevantes en el marco de los IFN: los indicadores de vegetación no arbórea (que juegan un papel relevante en los ecosistemas, es donde existe la mayor diversidad de plantas y hasta ahora no se conocían los datos muestreados en los IFN), la determinación de los árboles añosos (que tienen un importante papel como nicho ecológico y su identificación es especialmente relevante para la evaluación de la biodiversidad forestal) y el bosque disponible para el suministro de madera (indicador básico de los requerimientos internacionales de información forestal). Se llevó a cabo un estudio completo de la posible armonización de los indicadores de la vegetación no arbórea en los IFN. Para ello, se identificaron y analizaron las diferentes definiciones y diseños de muestreo empleados por los IFN, se establecieron definiciones de referencia y se propusieron y analizaron dos indicadores que pudiesen ser armonizados: MSC (mean species cover) que corresponde a la media de la fracción de cabida cubierta de cada especie por tipo de bosque y MTC (mean total cover). Se estableció una nueva metodología que permite identificar los árboles añosos con los datos proporcionados por los inventarios forestales nacionales con el objetivo de proporcionar una herramienta eficaz para facilitar la gestión forestal considerando la diversidad de los sistemas forestales. Se analizó el concepto de "bosque disponible para el suministro de madera" (FAWS) estudiando la consistencia de la información internacional disponible con el fin de armonizar su estimación y de proporcionar recomendaciones para satisfacer los requerimientos europeos. Como resultado, se elaboró una nueva definición de referencia de FAWS (que será adoptada por el proceso paneuropeo) y se analiza el impacto de la adopción de esta nueva definición en siete países europeos. El trabajo realizado en esta tesis, puede facilitar el suministrar y/o armonizar parcial o totalmente casi la mitad de los indicadores de información forestal solicitados por los requerimientos internacionales (47%). De éstos, prácticamente un 85% tienen relación con los datos inventariados empleando la metodología propuesta para la estimación de la biodiversidad forestal, y el resto, con el establecimiento de la definición de bosque disponible para el suministro de madera. No obstante, y pese a que esta tesis supone un avance importante, queda patente que las necesidades de información forestal son cambiantes y es imprescindible continuar el proceso de armonización de los IFN europeos. ABSTRACT Over the last few decades, the objectives on forestry and forest management in Europe have shifted from being primarily focused on wood production to sustainable ecosystem management, which should consider all the goods and services provided by the forest. Therefore, there is a continued need for forest indicators and assessments at EU level to support the development and implementation of a number of European environmental policies and to conduct a proper forest management. To address these questions, intensive monitoring on the status of forests is required. Therefore, the scope of National Forest Inventories (NFIs), (primary source of data for national and large-area assessments), has been broadened to include new variables to meet these increasing information requirements. However, estimates produced by different countries are not easily comparable because of differences in NFI definitions, plot configurations, measured variables, and measurement protocols. As consequence, harmonizing data produced at national level is essential for the production of sound EU forest information. The present thesis has two main aims: (i) to establish a methodology design to assess forest biodiversity in the frame of the Spanish National Forest Inventory taking into account the different national and international initiatives with the intention to produce comparable estimates with other EU countries and (ii) to harmonize relevant indicators for national and international requirements. In consequence of the work done related to the first objective, the established methodology to estimate forest biodiversity was adopted and launched under the Third National Forest Inventory. It was composed of indicators grouped into: cover, woody species composition, richness of herbaceous species and ferns, endangered species, stand structure, dead wood, and epiphytic lichens. This methodology was analyzed considering the provided data, time costs, feasibility, and requirements. Consequently, in the ongoing Fourth National Forest Inventory a modified methodology is applied: sampling of herbaceous species and ferns, epiphytic lichens and endangered species were removed, protocols regarding structure and deadwood were modified, and sampling of invasive species, age, browsing impact and naturalness were added. As regards the second objective, progress has been made in harmonizing three groups of variables considered relevant in the context of IFN: Indicators of non-tree vegetation (which play an important role in forest ecosystems, it is where the highest diversity of plants occur and so far the related sampled data in NFIs were not known), the identification of old-growth trees (which have an important role as ecological niche and its identification is especially relevant for the assessment of forest biodiversity) and the available forest for wood supply (basic indicator of international forestry information requirements). A complete analysis of ground vegetation harmonization possibilities within NFIs frame was carried on by identifying and analyzing the different definitions and sampling techniques used by NFIs, providing reference definitions related to ground vegetation and proposing and analyzing two ground vegetation harmonized indicators: “Mean species cover” (MSC) and “Mean total cover” (MTC) for shrubs by European forest categories. A new methodology based on NFI data was established with the aim to provide an efficient tool for policy makers to estimate the number of old-growth trees and thus to be able to perform the analysis of the effect of forest management on the diversity associated to forest systems. The concept of “forest available for wood supply” (FAWS) was discussed and clarified, analyzing the consistency of the available international information on FAWS in order to provide recommendations for data harmonization at European level regarding National Forest Inventories (NFIs). As a result, a new reference definition of FAWS was provided (which will be adopted in the pan-European process) and the consequences of the use of this new definition in seven European countries are analyzed. The studies carried on in this thesis, can facilitate the supply and/or harmonization partially or fully of almost half of the forest indicators (47%) needed for international requirements. Of these, nearly 85% are related to inventoried data using the proposed methodology for the estimation of forest biodiversity, and the rest, with the establishment of the definition of forest available for wood supply. However, despite this thesis imply an important development, forest information needs are changing and it is imperative to continue the process of harmonization of European NFIs.
Resumo:
Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.
Resumo:
Debido al gran incremento de datos digitales que ha tenido lugar en los últimos años, ha surgido un nuevo paradigma de computación paralela para el procesamiento eficiente de grandes volúmenes de datos. Muchos de los sistemas basados en este paradigma, también llamados sistemas de computación intensiva de datos, siguen el modelo de programación de Google MapReduce. La principal ventaja de los sistemas MapReduce es que se basan en la idea de enviar la computación donde residen los datos, tratando de proporcionar escalabilidad y eficiencia. En escenarios libres de fallo, estos sistemas generalmente logran buenos resultados. Sin embargo, la mayoría de escenarios donde se utilizan, se caracterizan por la existencia de fallos. Por tanto, estas plataformas suelen incorporar características de tolerancia a fallos y fiabilidad. Por otro lado, es reconocido que las mejoras en confiabilidad vienen asociadas a costes adicionales en recursos. Esto es razonable y los proveedores que ofrecen este tipo de infraestructuras son conscientes de ello. No obstante, no todos los enfoques proporcionan la misma solución de compromiso entre las capacidades de tolerancia a fallo (o de manera general, las capacidades de fiabilidad) y su coste. Esta tesis ha tratado la problemática de la coexistencia entre fiabilidad y eficiencia de los recursos en los sistemas basados en el paradigma MapReduce, a través de metodologías que introducen el mínimo coste, garantizando un nivel adecuado de fiabilidad. Para lograr esto, se ha propuesto: (i) la formalización de una abstracción de detección de fallos; (ii) una solución alternativa a los puntos únicos de fallo de estas plataformas, y, finalmente, (iii) un nuevo sistema de asignación de recursos basado en retroalimentación a nivel de contenedores. Estas contribuciones genéricas han sido evaluadas tomando como referencia la arquitectura Hadoop YARN, que, hoy en día, es la plataforma de referencia en la comunidad de los sistemas de computación intensiva de datos. En la tesis se demuestra cómo todas las contribuciones de la misma superan a Hadoop YARN tanto en fiabilidad como en eficiencia de los recursos utilizados. ABSTRACT Due to the increase of huge data volumes, a new parallel computing paradigm to process big data in an efficient way has arisen. Many of these systems, called dataintensive computing systems, follow the Google MapReduce programming model. The main advantage of these systems is based on the idea of sending the computation where the data resides, trying to provide scalability and efficiency. In failure-free scenarios, these frameworks usually achieve good results. However, these ones are not realistic scenarios. Consequently, these frameworks exhibit some fault tolerance and dependability techniques as built-in features. On the other hand, dependability improvements are known to imply additional resource costs. This is reasonable and providers offering these infrastructures are aware of this. Nevertheless, not all the approaches provide the same tradeoff between fault tolerant capabilities (or more generally, reliability capabilities) and cost. In this thesis, we have addressed the coexistence between reliability and resource efficiency in MapReduce-based systems, looking for methodologies that introduce the minimal cost and guarantee an appropriate level of reliability. In order to achieve this, we have proposed: (i) a formalization of a failure detector abstraction; (ii) an alternative solution to single points of failure of these frameworks, and finally (iii) a novel feedback-based resource allocation system at the container level. Finally, our generic contributions have been instantiated for the Hadoop YARN architecture, which is the state-of-the-art framework in the data-intensive computing systems community nowadays. The thesis demonstrates how all our approaches outperform Hadoop YARN in terms of reliability and resource efficiency.
Resumo:
La erosión costera es un fenómeno que ha cobrado importancia durante los últimos años, debido a sus repercusiones tanto en el turismo, como en el incremento de riesgo para las infraestructuras y para la población allí ubicada. Se define como el retroceso progresivo de la línea de costa cuyas causas pueden ser de origen natural o antropogénicas. La costa merece la máxima protección, y su gestión debe asegurar su integridad física y su libre acceso, al igual que un uso público por parte de todos. En este horizonte, la reducción de costes, la facilidad de construcción y velocidad de realización, las obras de geotextil se han mostrado como una alternativa muy seria a las obras duras u obras clásicas, tradicionalmente realizadas a lo largo de las costas. Pero esta alternativa de uso conlleva un mayor conocimiento en el comportamiento de éstas, su diseño y durabilidad. Las obras de geotextil, como su nombre indica, se realizan con elementos tridimensionales de geotextil (cosidos o no cosidos) rellenos de arena. Estos elementos se pueden considerar innovadores, económicos, ecológicos y alternativos frente a los tradicionales. Se distinguen tres tipos denominados: sacos, tubos y contenedores. El principal objetivo de esta tesis se centra en la determinación de las zonas de la costa apropiados para la utilización de estructuras compuestas de elementos de geotextil rellenos de arena, como obras de defensa de costas, con el fin de facilitar su uso en la ingeniería de costas. Para ello se ha clasificado tanto las distintas zonas del perfil longitudinal de una playa, como los tipos de costa en función de la variable altura de ola significante. Se han determinado las limitaciones de esta variable en las distintas fórmulas de estabilidad de estas estructuras. Y finalmente, en función de la máxima limitación de altura de ola significante y de sus posibles valores en las zonas y tipos de costa, se han determinado las zonas más apropiadas para el uso de las estructuras compuestas por elementos de geotextil. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Coastal erosion is a phenomenon that has become more important in recent years because of its impact on both on tourism, and increased risk to infrastructure and the population located there. It is defined as the gradual decline in the coastline whose causes may be natural or anthropogenic origin. The coast deserves maximum protection, and management should ensure their physical integrity and their free access, as well as public use by all. In this line, cost reduction, ease of construction and completion rate, geotextile works have been shown as a very serious to hard works or classics alternative, traditionally performed along the coasts. But this alternative use entails greater insight into the behaviour of these, design and durability. Works of geotextile, as its name suggests, are made with three-dimensional elements of geotextile (sewn or stitched) filled with sand. These items can be considered innovative, economic, and ecological alternative compared to traditional. Bags, tubes and containers, three known types are distinguished. The main objective of this thesis focuses on determining the appropriate areas of the coast for the use of composite structures of elements filled geotextile sand as coastal defence works, in order to facilitate their use, in coastal engineering. For it, has been classified by both the different areas of the longitudinal profile of a beach as the shoreline types depending on the variable significant wave height. We have determined the limitations of this variable in the different formulas stability of these structures. And finally, depending on the maximum limitation of significant wave height and its possible values in the areas and types of coastline, have determined the most appropriate for use in structures composed of elements of geotextile areas. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.
Resumo:
Cuando se empezaron a construir los primeros refugios, la única herramienta para aprovechar la energía que se tenía entonces eran todos los recursos que ofrecían el lugar, la naturaleza o el clima; y es por ello que estudiar el entorno era fundamental. Es decir, proyectar correctamente el diseño de las construcciones se convertía en el principal objetivo a la hora de crear buena arquitectura para conseguir el confort adecuado con los mínimos costes ambientales. Obviamente, la estética y la tradición siempre han estado presentes dependiendo del emplazamiento o de la cultura, pero no se ha de olvidar qué es lo primordial. La tecnología era casi inexistente y, sin embargo, eran construcciones totalmente bioclimáticas, propósito que hoy en día muchas veces no se consigue por desconocer u obviar datos básicos necesarios. Por lo tanto, el propósito del trabajo es analizar cómo se han podido desarrollar las diferentes estrategias que surgieron hace muchos años, si se pueden seguir utilizando o si han evolucionado en otras nuevas que podamos incorporar actualmente más fácilmente, nuevas técnicas que se deberían tener en cuenta a la hora de proyectar un edificio, como es adaptar cada uno de ellos al lugar en el que se va a erguir, para reducir el impacto medioambiental que suponen y poder combatir en la medida de lo posible el cambio climático.
Resumo:
Para el análisis de la respuesta estructural, tradicionalmente se ha partido de la suposición de que los nudos son totalmente rígidos o articulados. Este criterio facilita en gran medida los cálculos, pero no deja de ser una idealización del comportamiento real de las uniones. Como es lógico, entre los nudos totalmente rígidos y los nudos articulados existe una gama infinita de valores de rigidez que podrían ser adoptados. A las uniones que presentan un valor distinto de los canónicos se les denomina en sentido general uniones semirrígidas. La consideración de esta rigidez intermedia complica considerablemente los cálculos estructurales, no obstante provoca cambios en el reparto de esfuerzos dentro de la estructura, así como en la configuración de las propias uniones, que en ciertas circunstancias pueden suponer una ventaja económica. Del planteamiento expuesto en el párrafo anterior, surgen dos cuestiones que serán el germen de la tesis. Estas son: ¿Qué ocurre si se aplica el concepto de uniones semirrígidas a las naves industriales? ¿Existen unos valores determinados de rigidez en sus nudos con los que se logra optimizar la estructura? Así, surge el objetivo principal de la tesis, que no es otro que conocer la influencia de la rigidez de los nudos en los costes de los pórticos a dos aguas de estructura metálica utilizados típicamente en edificios de uso agroindustrial. Para alcanzar el objetivo propuesto, se plantea una metodología de trabajo que básicamente consiste en el estudio de una muestra representativa de pórticos sometidos a tres estados de carga: bajo, medio y alto. Su rango de luces abarca desde los 8 a los 20 m y el de la altura de pilares desde los 3,5 a los 10 m. Además, se considera que sus uniones pueden adoptar valores intermedios de rigidez. De la combinatoria de las diferentes configuraciones posibles se obtienen 46.656 casos que serán objeto de estudio. Debido al fin economicista del trabajo, se ha prestado especial atención a la obtención de los costes de ejecución de las diferentes partidas que componen la estructura, incluidas las correspondientes a las uniones. Para acometer los cálculos estructurales ha sido imprescindible contar con un soporte informático, tanto existente como de creación ex profeso, que permitiese su automatización en un contexto de optimización. Los resultados del estudio consisten básicamente en una cantidad importante de datos que para su interpretación se hace imprescindible tratarlos previamente. Este tratamiento se fundamenta en su ordenación sistemática, en la aplicación de técnicas estadísticas y en la representación gráfica. Con esto se obtiene un catálogo de gráficos en los que se representa el coste total de la estructura según los diferentes valores de rigidez de sus nudos, unas matrices resumen de resultados y unos modelos matemáticos que representan la función coste total - rigideces de nudos. Como conclusiones se puede destacar: por un lado que los costes totales de los pórticos estudiados son mínimos cuando los valores de rigidez de sus uniones son bajos, concretamente de 5•10³ a 10•10³ kN•m/rad; y por otro que la utilización en estas estructuras de uniones semirrígidas con una combinación idónea de sus rigideces, supone una ventaja económica media del 18% con respecto a las dos tipologías que normalmente se usan en este tipo de edificaciones como son los pórticos biempotrados y los biarticulados. ABSTRACT Analyzing for structural response, traditionally it started from the assumption that joints are fully rigid or pinned. This criterion makes the design significantly easier, but it is also an idealization of real joint behaviour. As is to be expected, there is an almost endless range of stiffnes value between fully rigid and pinned joints, wich could be adopted. Joints with a value other than traditional are referred to generally as semi-rigid joints. If middle stiffness is considered, the structural design becomes much more complicated, however, it causes changes in the distribution of frame stresses, as well as on joints configuration, that under certain circumstances they may suppose an economic advantage. Two questions arise from the approach outlined in the preceding subparagraph, wich are the seeds of the doctoral thesis. These are: what happens when the concept of semirigid joints is applied to industrial buildings? There are certain stiffness values in their joints with which optimization of frame is achieved? This way, the main objective of the thesis arise, which is to know the influence of stiffness of joints in the cost of the steel frames with gabled roof, that they are typically used in industrial buildings. In order to achieve the proposed goal, a work methodology is proposed, which consists in essence in a study of a representative sample of frames under three load conditions: low, middle and high. Their range of spans comprises from 8 to 20 m and range of the height of columns cover from 3,5 to 10 m. Furthermore, it is considered that their joints can adopt intermediate values of stiffness. The result of the combination of different configurations options is 46.656 cases, which will be subject of study. Due to the economic aim of this work, a particular focus has been devoted for obtaining the execution cost of the different budget items that make up the structure, including those relating to joints. In order to do the structural calculations, count with a computing support has been indispensable, existing and created expressly for this purpose, which would allows its automation in a optimization context. The results of the study basically consist in a important amount of data, whose previous processing is necesary. This process is based on his systematic arrangement, in implementation of statistical techniques and in graphical representation. This give a catalogue of graphics, which depicts the whole cost of structure according to the different stiffness of its joints, a matrixes with the summary of results and a mathematical models which represent the function whole cost - stiffness of the joints. The most remarkable conclusions are: whole costs of the frames studied are minimum when the stiffness values of their joints are low, specifically 5•10³ a 10•10³ kN•m/rad; and the use of structures with semi-rigid joints and a suitable combination of their stiffness implyes an average economic advantage of 18% over other two typologies which are used typically in this kind of buildings; these are the rigid and bi-articulated frames.
Resumo:
Los nombres que se usan actualmente para las grúas los ponen las empresas fabricantes y muy frecuentemente no tienen relación con su tipología ni con su capacidad. Por otra parte, es de uso común en la construcción, llamar a las grúas usando su tonelaje nominal que coincide normalmente con su capacidad máxima que se obtiene a radio mínimo. Existe una controversia por el uso de este valor ya que no suele definir bien la capacidad de las maquinas. En cuanto el radio de trabajo se aleja de sus valores mínimos, las grúas están limitadas por el momento de vuelco que no tiene porque comportarse de manera proporcional o ni siquiera relacionada con el valor de la capacidad nominal. Esto hace que comparar grúas mediante sus capacidades nominales (que son sus denominaciones) pueda inducir a errores importantes. Como alternativa, se pretende estudiar el uso de momento máximo de vuelco MLM por sus siglas en ingles (Maximum Load Moment) para intentar definir la capacidad real de las grúas. Se procede a realizar un análisis técnico y financiero de grúas con respecto a ambos valores mencionados con objeto de poder determinar cual de los dos parámetros es más fiable a la hora de definir la capacidad real de estas maquinas. Para ello, se seleccionan dentro de las tres tipologías más importantes por su presencia e importancia en la construcción (grúas de celosía sobre cadenas, grúas telescópicas sobre camión y grúas torre) nueve grúas de distintos tamaños y capacidades con objeto de analizar una serie de parámetros técnicos y sus costes. Se realizan de este modo diversas comparativas analizando los resultados en función de las tipologías y de los tamaños de las distintas maquinas. Para cada máquina se obtienen las capacidades y los momentos de vuelco correspondientes a distintos radios de trabajo. Asimismo, se obtiene el MLM y el coste hora de cada grúa, este último como suma de la amortización de la máquina, intereses del capital invertido, consumos, mantenimiento y coste del operador. Los resultados muestran las claras deficiencias del tonelaje nominal como valor de referencia para definir la capacidad de las grúas ya que grúas con el mismo tonelaje nominal pueden dar valores de capacidad de tres a uno (e incluso mayores) cuando los radios de trabajo son importantes. A raiz de este análisis se propone el uso del MLM en lugar del tonelaje nominal para la denominación de las grúas ya que es un parámetro mucho más fiable. Siendo conscientes de la dificultad que supone un cambio de esta entidad al tratarse de un uso común a nivel mundial, se indican posibles actuaciones concretas que puedan ir avanzando en esa dirección como seria por ejemplo la nomenclatura oficial de los fabricantes usando el MLM dentro del nombre de la grúa que también podría incluir la tipología o al menos alguna actuación legislativa sencilla como obligar al fabricante a indicar este valor en las tablas y características de cada máquina. El ratio analizado Coste horario de la grúa / MLM resulta ser de gran interés y permite llegar a la conclusión que en todas las tipologías de grúas, la eficiencia del coste por hora y por la capacidad (dada por el MLM) aumenta al aumentar la capacidad de la grúa. Cuando los tamaños de cada tipología se reducen, esta eficiencia disminuye y en algunos casos incluso drasticamente. La tendencia del mundo de la construcción de prefabricación y modularización que conlleva pesos y dimensiones de cargas cada vez más grandes, demandan cada vez grúas de mayor capacidad y se podría pensar en un primer momento que ante un crecimiento de capacidades tan significativo, el coste de las grúas se podría disparar y por ello disminuir la eficiencia de estas máquinas. A la vista de los resultados obtenidos con este análisis, no solo no ocurre este problema sino que se observa que dicho aumento de tamaños y capacidades de grúas redunda en un aumento de su eficiencia en cualquiera de las tipologías de estas maquinas que han sido estudiadas. The crane names that are actually used are given by crane manufacturers and, very frequently, they do not have any relationship with the crane type nor with its capacity. On the other hand, it is common in construction to use the nominal capacity (which corresponds in general to the capacity at minimum radius) as crane name. The use of this figure is controversial since it does not really reflect the real crane capacity. When the working radius increases a certain amount from its minimum values, the crane capacity starts to be limited by the crane tipping load and the moment is not really related to the value of the nominal capacity. Therefore, comparing cranes by their nominal capacity (their names) can lead to important mistakes. As an alternative, the use of the maximum load moment (MLM) can be studied for a better definition of real crane capacity. A technical and financial analysis of cranes is conducted using both parameters to determine which one is more reliable in order to define crane’s real capacity. For this purpose, nine cranes with different sizes and capacities will be selected within the most relevant crane types (crawler lattice boom cranes, telescopic truck mounted cranes and tower cranes) in order to analyze several parameters. The technical and economic results will be compared according to the crane types and sizes of the machines. For each machine, capacities and load moments are obtained for several working radius as well as MLM and hourly costs of cranes. Hourly cost is calculated adding up depreciation, interests of invested capital, consumables, maintenance and operator’s cost. The results show clear limitations for the use of nominal capacity as a reference value for crane definition since cranes with the same nominal capacity can have capacity differences of 3 to 1 (or even bigger) when working on important radius. From this analysis, the use of MLM as crane name instead of nominal capacity is proposed since it is a much more reliable figure. Being aware of the difficulty of such change since nominal capacity is commonly used worldwide; specific actions are suggested to progress in that direction. One good example would be that manufacturers would include MLM in their official crane names which could also include the type as well. Even legal action can be taken by simply requiring to state this figure in the crane charts and characteristics of every machine. The analyzed ratio: hourly cost / MLM is really interesting since it leads to the conclusion that for all crane types, the efficiency of the hourly cost divided by capacity (given by MLM) increases when the crane capacity is higher. When crane sizes are smaller, this efficiency is lower and can fall dramatically in certain cases. The developments in the construction world regarding prefabrication and modularization mean bigger weights and dimensions, which create a demand for bigger crane capacities. On a first approach, it could be thought that crane costs could rise significantly because of this capacity hugh increase reducing in this way crane efficiency. From the results obtained here, it is clear that it is definitely not the case but the capacity increase of cranes will end up in higher efficiency levels for all crane types that have been studied.
Resumo:
La acuicultura, el cultivo y cría de animales y plantas acuáticas, representa en la actualidad una fuente esencial de proteína animal y vegetal altamente saludable y nutritiva, proporcionando un sistema de vida y de ingresos en todo el mundo. La acuicultura además de ser un motor para el desarrollo social y económico de las áreas costeras marinas y fluviales mundiales, supone en muchas regiones subdesarrolladas una garantía de alimento de alta calidad y es clave en la seguridad alimentaria de sus poblaciones. El desarrollo de la acuicultura se ha realizado fundamentalmente en los últimos 50 años, y ha sido sobre todo en la década de los años 80, cuando la acuicultura ha experimentado un fuerte crecimiento con tasas anuales que superan el 6%. Con el estancamiento de la producción pesquera y el incremento de la población mundial, la acuicultura se presenta como la única fuente posible de suministro de proteínas (vegetales y animales) de alta calidad, ricas en aceites omega 3 (EPA y DHA) de origen acuático. En la actualidad la producción procedente de la acuicultura supera los 95 millones de toneladas anuales, siendo ligeramente superior a los 94 millones de toneladas anuales provenientes de la pesca extractiva. De este total mundial acuícola, la producción asiática representa el 89%, mientras que la europea el 4,2% Aunque el 46% de la producción mundial acuícola se concentra únicamente en solo 10 especies, una de las principales características de la acuicultura es la gran diversidad de especies cultivadas, más de 500, realizándose su cría bajo diferentes tecnologías y sistemas productivos. El ámbito de esta tesis, es únicamente la acuicultura marina que se desarrolla en las aguas del mar mediterráneo, indistintamente de los sistemas y tecnología de producción utilizados. Los principales grupos de cultivo que se realizan en las aguas del Mediterráneo son los moluscos y los peces, siendo muy escasos los cultivos de otros grupos como crustáceos y macroalgas. La piscicultura marina mediterránea está dominada por el cultivo en jaulas flotantes de dos especies, la dorada (Sparus auratus) y la lubina (Dicentrarchus labrax). Estas dos especies y tras 30 años de experiencia de cultivo, mantienen todavía una ineficiencia productiva alta (reducida selección genética, lento crecimiento hasta talla comercial, alto factor de conversón del pienso…) y además ocupan un estrecho nicho de mercado, ya que prácticamente toda la comercialización de la dorada y lubina se realiza en fresco y sin elaborar ni transformar, a una talla media de 500 g. Para dar respuesta desde la acuicultura mediterránea al alto consumo y a la creciente demanda que en la Unión Europea existe de los productos acuícolas, y en especial los productos elaborados y transformados, es necesario de manera urgente, un aumento de la producción de las especies ya cultivadas (dorada y lubina) mediante la mejora de su eficiencia productiva, al mismo tiempo que se debe iniciar la producción industrial de nuevas especies piscícolas, mediante la diversificación de los cultivos. Para llevar a cabo esta diversificación, se hace necesario el establecimiento de una metodología clara, que asegure una selección de especies apropiadas y rentables para la industria acuícola mediterránea, cuyo cultivo sostenible debiera cumplir con los desafíos que el sector tiene. Nuevas especies que complementen y cubran las demandas actuales y futuras del mercado Europeo e Internacional de productos acuícolas. Nuevas especies con parámetros productivos eficientes, que garanticen unos costes productivos competitivos. Nuevas especies que puedan ser cultivadas utilizando como base la tecnología de producción ya existente en el sector. El objetivo de esta tesis es la definición y desarrollo de una metodología sencilla para la selección de nuevas especies piscícolas marinas para su cultivo eficiente y sostenible Y bajo la aplicación de esta metodología, la selección de un grupo de especies piscícolas para su cultivo rentable a corto y medio plazo (6-8 años) en el Mediterráneo. Para ello se ha definido y aplicado una metodología con la que se han evaluado diez especies candidatas, previamente escogidas de una serie de listas previas originadas en los distintos estudios y trabajos de diversificación realizados con anterioridad por otros equipos de investigación. Estas especies candidatas han sido: Seriola dumerili. (Seriola) , Argyrosomus regius (Corvina), Polyprion americanus (Cherna), Ephinephelus marginatus (Mero), Dentex dentex (Dentón), Pagrus pagrus (Pargo), Solea senegalensis (Lenguado del Senegal), Thunnus thynnus (Atún rojo), Mugil cephalus (Lisa), Coryphaena hippurus (Lampuga). El conjunto de estas especies ocupa un amplio y variado espectro dentro de las distintas áreas de mercado, productiva, tecnológica, y medioambiental . Y en todas ellas existe una experiencia mínima en sus diferentes fases de cultivo. En el desarrollo de la metodología de selección, en esta tesis se han definido diversos parámetros de evaluación, considerados como los más significativos y sencillos de aplicar. Los parámetros se han agrupado en tres bloques, el comercial, el productivo y el medioambiental. El Bloque de Mercado, comprende aquellos criterios que están relacionados con la comercialización de la especie. Calidad de la carne del pescado. Competencia con otras especies en el mercado. Potencial de Transformado. Precio de venta del pescado. El bloque Medioambiental incluye criterios del grado de idoneidad de la especie en la región y del grado de impacto ambiental de su cultivo. Rango de temperaturas del agua óptimo para el cultivo. Potencial impacto ambiental de su cultivo. Eslabón trófico de la especie.. El bloque Productivo, engloba los criterios y parámetros relacionados con el nivel de conocimiento y control que sobre su cultivo existen ( larvario, engorde, tecnología) Grado de control de la fase larvaria. Disponibilidad de alevines en el sector Crecimiento. Factor de conversión Aprovechamiento de la capacidad productiva instalada, Coste de inversión. Previa a la evaluación se han descrito las principales características de las especies candidatas en función del estado y experiencia actual sus cultivos. En la aplicación de estos criterios se han establecido matrices de evaluación y a cada criterio se le ha asignado un valor diferente en función de sus características y propiedades selectivas. Los resultados obtenidos mediante la aplicación de la metodología de evaluación propuesta, han señalado la seriola y la corvina como especies más recomendadas para su puesta en cultivo en el Mediterráneo a corto y medio plazo. Las otras dos especies seleccionadas han sido la lisa y la lampuga. Como conclusión final podemos señalar que el cultivo de nuevas especies es fundamentalmente para el desarrollo sostenible de la acuicultura mediterránea. Esta diversificación debe basarse en la aplicación de una metodología sencilla y práctica, que garantice una selección de especies cuyo cultivo sea rentable y abarquen nuevos segmentos de mercado. ABSTRACT Aquaculture, the cultivation and breeding of aquatic animals and plants, currently represents an essential source of highly nutritious and healthy protein that provides a way of life and income all over the world. Apart from being a social and economic driver in coastal and marine areas, it also entails a guaranteed high quality nourishment in many undeveloped areas being key to the alimentary safety of their population. Aquaculture has developed mainly in the last 50 years and experienced a high growth especially during the Eighties when the annual rates were above 6%. With fishing production stagnating and the global population increasing, aquaculture emerges as the only possible animal and vegetable protein source of aquatic origin, high in quality and omega 3 oils (EPA and DHA). Here and now, aquaculture production is over 95 million tons per year, which is slightly higher than the 94 million tons per year that come from extractive fisheries. From this aquaculture total, Asiatic production represents 89% while Europe´s is only 4.2%. Even though 46% of the global aquaculture production focuses just on 10 species, one of the main characteristics of aquaculture is the wide diversity of cultivated species –over 500– using different technologies and production systems. This PhD’s scope is only marine aquaculture in Mediterranean water, regardless of the technology or systems used. The main crop groups in the Mediterranean sea are molluscs and finfish, while crustacean and macroalgae cultivations are very limited. Mediterranean fish culture is dominated by the cultivation in floating cages of two species: Bream (Sparus auratus) and Bass (Dicentrarchus labrax). After 30 years of farming, these two species still keep a high productive inefficiency –reduced genetic selection, slow growth to marketable size, high feed conversion rate– and fill a narrow niche market as practically all bream and bass is sold fresh and whole, unprocessed and untransformed, with an average size of 500 grams. To meet the high consumption and growing demand of aquaculture products, in the European Union (especially those prepared and transformed), Mediterranean aquaculture needs to urgently increase the production of the species already under cultivation (Bass and Bream) by means of improving its productive efficiency and at the same time begin initiating industrial production of new species by diversifying the cultivation. To carry out this diversification it is necessary to establish a clear methodology that ensures the selection of adapted and profitable species for the Mediterranean aquaculture industry. The sustainable farming of these new species needs to meet the challenges this sector faces: New species that complement and meet the current and future needs of the European and International markets for aquaculture products. New species with efficient production parameters that ensure competitive production costs. New species that can be cultivated using already existing production technologies. The aim of this PhD is to define and develop a simple methodology for the selection of new marine fish species for their efficient and sustainable cultivation. And by applying this methodology, to select a group of fish species for its profitable crop in the short and medium term (6-8 years) in the Mediterranean. For this, a methodology has been defined and applied evaluating ten candidate species selected from a series of lists originated from different studies and from diversification works previously conducted by other research teams. These candidate species are: Seriola dumerili. (Greater amberjack), Argyrosomus regius (Meagre), Polyprion americanus (Wreckfish), Ephinephelus marginatus (Dusky grouper), Dentex dentex (Common dentex), Pagrus pagrus (Red porgy), Solea senegalensis (Senegal sole), Thunnus thynnus (Bluefin tuna), Mugil cephalus (Grey mullet), Coryphaena hippurus (Dolphinfish). All these species occupy a broad and varied spectrum within different productive, technological and environmental market areas. There is minimal experience in their different stages of cultivation for all of them. While developing the selection methodology several evaluation parameters have been defined in this PhD, considered the most significant and simple to apply. The parameters are grouped in three blocks: commercial, productivity and environmental. Market block comprises criteria related to the marketing of the species. Quality of the fish meatCompetition with other species in the marketTransformation potentialFish selling price Environment block includes criteria related to the degree of suitability of the species in the region and the degree of environmental impact of their cultivation. Optimal water temperature range for cultivationPotential environmental impact of their cultivationTrophic chain level. Productivity block includes criteria and parameters related to the level of knowledge and control over their cultivation (larval, ongrowing, technology) Degree of control of the larval stageAvailability of alevin in the sector GrowthFeed conversion rate. Exploitation of installed capacityInvestment cost Prior to the evaluation, the main characteristics of the candidate species have been described based on the current status and experience of their cultivations. When applying these criteria evaluation matrices have been established assigning to each criteria a different value depending on their characteristics and selective properties. The results obtained by applying the proposed assessment methodology have identified the Greater Amberjack and Meagre as the most recommended species for farming in the Mediterranean in the short and medium term. The other two selected species were the Grey Mullet and the Dolphinfish. In conclusion, the cultivation of new species is crucial for the sustainable development of Mediterranean aquaculture. This diversification has to be based on the application of a simple and practical methodology that guarantees a selection of species whose cultivation is profitable and covers new market segments.
Resumo:
Disponer de información precisa y actualizada de inventario forestal es una pieza clave para mejorar la gestión forestal sostenible y para proponer y evaluar políticas de conservación de bosques que permitan la reducción de emisiones de carbono debidas a la deforestación y degradación forestal (REDD). En este sentido, la tecnología LiDAR ha demostrado ser una herramienta perfecta para caracterizar y estimar de forma continua y en áreas extensas la estructura del bosque y las principales variables de inventario forestal. Variables como la biomasa, el número de pies, el volumen de madera, la altura dominante, el diámetro o la altura media son estimadas con una calidad comparable a los inventarios tradicionales de campo. La presente tesis se centra en analizar la aplicación de los denominados métodos de masa de inventario forestal con datos LIDAR bajo diferentes condiciones y características de masa forestal (bosque templados puros y mixtos) y utilizando diferentes bases de datos LiDAR (información proveniente de vuelo nacionales e información capturada de forma específica). Como consecuencia de lo anterior, se profundiza en la generación de inventarios forestales continuos con LiDAR en grandes áreas. Los métodos de masa se basan en la búsqueda de relaciones estadísticas entre variables predictoras derivadas de la nube de puntos LiDAR y las variables de inventario forestal medidas en campo con el objeto de generar una cartografía continua de inventario forestal. El rápido desarrollo de esta tecnología en los últimos años ha llevado a muchos países a implantar programas nacionales de captura de información LiDAR aerotransportada. Estos vuelos nacionales no están pensados ni diseñados para fines forestales por lo que es necesaria la evaluación de la validez de esta información LiDAR para la descripción de la estructura del bosque y la medición de variables forestales. Esta información podría suponer una drástica reducción de costes en la generación de información continua de alta resolución de inventario forestal. En el capítulo 2 se evalúa la estimación de variables forestales a partir de la información LiDAR capturada en el marco del Plan Nacional de Ortofotografía Aérea (PNOA-LiDAR) en España. Para ello se compara un vuelo específico diseñado para inventario forestal con la información de la misma zona capturada dentro del PNOA-LiDAR. El caso de estudio muestra cómo el ángulo de escaneo, la pendiente y orientación del terreno afectan de forma estadísticamente significativa, aunque con pequeñas diferencias, a la estimación de biomasa y variables de estructura forestal derivadas del LiDAR. La cobertura de copas resultó más afectada por estos factores que los percentiles de alturas. Considerando toda la zona de estudio, la estimación de la biomasa con ambas bases de datos no presentó diferencias estadísticamente significativas. Las simulaciones realizadas muestran que las diferencias medias en la estimación de biomasa entre un vuelo específico y el vuelo nacional podrán superar el 4% en áreas abruptas, con ángulos de escaneo altos y cuando la pendiente de la ladera no esté orientada hacia la línea de escaneo. En el capítulo 3 se desarrolla un estudio en masas mixtas y puras de pino silvestre y haya, con un enfoque multi-fuente empleando toda la información disponible (vuelos LiDAR nacionales de baja densidad de puntos, imágenes satelitales Landsat y parcelas permanentes del inventario forestal nacional español). Se concluye que este enfoque multi-fuente es adecuado para realizar inventarios forestales continuos de alta resolución en grandes superficies. Los errores obtenidos en la fase de ajuste y de validación de los modelos de área basimétrica y volumen son similares a los registrados por otros autores (usando un vuelo específico y parcelas de campo específicas). Se observan errores mayores en la variable número de pies que los encontrados en la literatura, que pueden ser explicados por la influencia de la metodología de parcelas de radio variable en esta variable. En los capítulos 4 y 5 se evalúan los métodos de masa para estimar biomasa y densidad de carbono en bosques tropicales. Para ello se trabaja con datos del Parque Nacional Volcán Poás (Costa Rica) en dos situaciones diferentes: i) se dispone de una cobertura completa LiDAR del área de estudio (capitulo 4) y ii) la cobertura LiDAR completa no es técnica o económicamente posible y se combina una cobertura incompleta de LiDAR con imágenes Landsat e información auxiliar para la estimación de biomasa y carbono (capitulo 5). En el capítulo 4 se valida un modelo LiDAR general de estimación de biomasa aérea en bosques tropicales y se compara con los resultados obtenidos con un modelo ajustado de forma específica para el área de estudio. Ambos modelos están basados en la variable altura media de copas (TCH por sus siglas en inglés) derivada del modelo digital LiDAR de altura de la vegetación. Los resultados en el área de estudio muestran que el modelo general es una alternativa fiable al ajuste de modelos específicos y que la biomasa aérea puede ser estimada en una nueva zona midiendo en campo únicamente la variable área basimétrica (BA). Para mejorar la aplicación de esta metodología es necesario definir en futuros trabajos procedimientos adecuados de medición de la variable área basimétrica en campo (localización, tamaño y forma de las parcelas de campo). La relación entre la altura media de copas del LiDAR y el área basimétrica (Coeficiente de Stock) obtenida en el área de estudio varía localmente. Por tanto es necesario contar con más información de campo para caracterizar la variabilidad del Coeficiente de Stock entre zonas de vida y si estrategias como la estratificación pueden reducir los errores en la estimación de biomasa y carbono en bosques tropicales. En el capítulo 5 se concluye que la combinación de una muestra sistemática de información LiDAR con una cobertura completa de imagen satelital de moderada resolución (e información auxiliar) es una alternativa efectiva para la realización de inventarios continuos en bosques tropicales. Esta metodología permite estimar altura de la vegetación, biomasa y carbono en grandes zonas donde la captura de una cobertura completa de LiDAR y la realización de un gran volumen de trabajo de campo es económica o/y técnicamente inviable. Las alternativas examinadas para la predicción de biomasa a partir de imágenes Landsat muestran una ligera disminución del coeficiente de determinación y un pequeño aumento del RMSE cuando la cobertura de LiDAR es reducida de forma considerable. Los resultados indican que la altura de la vegetación, la biomasa y la densidad de carbono pueden ser estimadas en bosques tropicales de forma adecuada usando coberturas de LIDAR bajas (entre el 5% y el 20% del área de estudio). ABSTRACT The availability of accurate and updated forest data is essential for improving sustainable forest management, promoting forest conservation policies and reducing carbon emissions from deforestation and forest degradation (REDD). In this sense, LiDAR technology proves to be a clear-cut tool for characterizing forest structure in large areas and assessing main forest-stand variables. Forest variables such as biomass, stem volume, basal area, mean diameter, mean height, dominant height, and stem number can be thus predicted with better or comparable quality than with costly traditional field inventories. In this thesis, it is analysed the potential of LiDAR technology for the estimation of plot-level forest variables under a range of conditions (conifer & broadleaf temperate forests and tropical forests) and different LiDAR capture characteristics (nationwide LiDAR information vs. specific forest LiDAR data). This study evaluates the application of LiDAR-based plot-level methods in large areas. These methods are based on statistical relationships between predictor variables (derived from airborne data) and field-measured variables to generate wall to wall forest inventories. The fast development of this technology in recent years has led to an increasing availability of national LiDAR datasets, usually developed for multiple purposes throughout an expanding number of countries and regions. The evaluation of the validity of nationwide LiDAR databases (not designed specifically for forest purposes) is needed and presents a great opportunity for substantially reducing the costs of forest inventories. In chapter 2, the suitability of Spanish nationwide LiDAR flight (PNOA) to estimate forest variables is analyzed and compared to a specifically forest designed LiDAR flight. This study case shows that scan angle, terrain slope and aspect significantly affect the assessment of most of the LiDAR-derived forest variables and biomass estimation. Especially, the estimation of canopy cover is more affected than height percentiles. Considering the entire study area, biomass estimations from both databases do not show significant differences. Simulations show that differences in biomass could be larger (more than 4%) only in particular situations, such as steep areas when the slopes are non-oriented towards the scan lines and the scan angles are larger than 15º. In chapter 3, a multi-source approach is developed, integrating available databases such as nationwide LiDAR flights, Landsat imagery and permanent field plots from SNFI, with good resultos in the generation of wall to wall forest inventories. Volume and basal area errors are similar to those obtained by other authors (using specific LiDAR flights and field plots) for the same species. Errors in the estimation of stem number are larger than literature values as a consequence of the great influence that variable-radius plots, as used in SNFI, have on this variable. In chapters 4 and 5 wall to wall plot-level methodologies to estimate aboveground biomass and carbon density in tropical forest are evaluated. The study area is located in the Poas Volcano National Park (Costa Rica) and two different situations are analyzed: i) available complete LiDAR coverage (chapter 4) and ii) a complete LiDAR coverage is not available and wall to wall estimation is carried out combining LiDAR, Landsat and ancillary data (chapter 5). In chapter 4, a general aboveground biomass plot-level LiDAR model for tropical forest (Asner & Mascaro, 2014) is validated and a specific model for the study area is fitted. Both LiDAR plot-level models are based on the top-of-canopy height (TCH) variable that is derived from the LiDAR digital canopy model. Results show that the pantropical plot-level LiDAR methodology is a reliable alternative to the development of specific models for tropical forests and thus, aboveground biomass in a new study area could be estimated by only measuring basal area (BA). Applying this methodology, the definition of precise BA field measurement procedures (e.g. location, size and shape of the field plots) is decisive to achieve reliable results in future studies. The relation between BA and TCH (Stocking Coefficient) obtained in our study area in Costa Rica varied locally. Therefore, more field work is needed for assessing Stocking Coefficient variations between different life zones and the influence of the stratification of the study areas in tropical forests on the reduction of uncertainty. In chapter 5, the combination of systematic LiDAR information sampling and full coverage Landsat imagery (and ancillary data) prove to be an effective alternative for forest inventories in tropical areas. This methodology allows estimating wall to wall vegetation height, biomass and carbon density in large areas where full LiDAR coverage and traditional field work are technically and/or economically unfeasible. Carbon density prediction using Landsat imaginery shows a slight decrease in the determination coefficient and an increase in RMSE when harshly decreasing LiDAR coverage area. Results indicate that feasible estimates of vegetation height, biomass and carbon density can be accomplished using low LiDAR coverage areas (between 5% and 20% of the total area) in tropical locations.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.