67 resultados para consumo energético
Resumo:
El consumo energético de las Redes de Sensores Inalámbricas (WSNs por sus siglas en inglés) es un problema histórico que ha sido abordado desde diferentes niveles y visiones, ya que no solo afecta a la propia supervivencia de la red sino que el creciente uso de dispositivos inteligentes y el nuevo paradigma del Internet de las Cosas hace que las WSNs tengan cada vez una mayor influencia en la huella energética. Debido a la tendencia al alza en el uso de estas redes se añade un nuevo problema, la saturación espectral. Las WSNs operan habitualmente en bandas sin licencia como son las bandas Industrial, Científica y Médica (ISM por sus siglas en inglés). Estas bandas se comparten con otro tipo de redes como Wi-Fi o Bluetooth cuyo uso ha crecido exponencialmente en los últimos años. Para abordar este problema aparece el paradigma de la Radio Cognitiva (CR), una tecnología que permite el acceso oportunista al espectro. La introducción de capacidades cognitivas en las WSNs no solo permite optimizar su eficiencia espectral sino que también tiene un impacto positivo en parámetros como la calidad de servicio, la seguridad o el consumo energético. Sin embargo, por otra parte, este nuevo paradigma plantea algunos retos relacionados con el consumo energético. Concretamente, el sensado del espectro, la colaboración entre los nodos (que requiere comunicación adicional) y el cambio en los parámetros de transmisión aumentan el consumo respecto a las WSN clásicas. Teniendo en cuenta que la investigación en el campo del consumo energético ha sido ampliamente abordada puesto que se trata de una de sus principales limitaciones, asumimos que las nuevas estrategias deben surgir de las nuevas capacidades añadidas por las redes cognitivas. Por otro lado, a la hora de diseñar estrategias de optimización para CWSN hay que tener muy presentes las limitaciones de recursos de estas redes en cuanto a memoria, computación y consumo energético de los nodos. En esta tesis doctoral proponemos dos estrategias de reducción de consumo energético en CWSNs basadas en tres pilares fundamentales. El primero son las capacidades cognitivas añadidas a las WSNs que proporcionan la posibilidad de adaptar los parámetros de transmisión en función del espectro disponible. La segunda es la colaboración, como característica intrínseca de las CWSNs. Finalmente, el tercer pilar de este trabajo es teoría de juegos como algoritmo de soporte a la decisión, ampliamente utilizado en WSNs debido a su simplicidad. Como primer aporte de la tesis se presenta un análisis completo de las posibilidades introducidas por la radio cognitiva en materia de reducción de consumo para WSNs. Gracias a las conclusiones extraídas de este análisis, se han planteado las hipótesis de esta tesis relacionadas con la validez de usar capacidades cognitivas como herramienta para la reducción de consumo en CWSNs. Una vez presentada las hipótesis, pasamos a desarrollar las principales contribuciones de la tesis: las dos estrategias diseñadas para reducción de consumo basadas en teoría de juegos y CR. La primera de ellas hace uso de un juego no cooperativo que se juega mediante pares de jugadores. En la segunda estrategia, aunque el juego continúa siendo no cooperativo, se añade el concepto de colaboración. Para cada una de las estrategias se presenta el modelo del juego, el análisis formal de equilibrios y óptimos y la descripción de la estrategia completa donde se incluye la interacción entre nodos. Con el propósito de probar las estrategias mediante simulación e implementación en dispositivos reales hemos desarrollado un marco de pruebas compuesto por un simulador cognitivo y un banco de pruebas formado por nodos cognitivos capaces de comunicarse en tres bandas ISM desarrollados en el B105 Lab. Este marco de pruebas constituye otra de las aportaciones de la tesis que permitirá el avance en la investigación en el área de las CWSNs. Finalmente, se presentan y discuten los resultados derivados de la prueba de las estrategias desarrolladas. La primera estrategia proporciona ahorros de energía mayores al 65% comparados con una WSN sin capacidades cognitivas y alrededor del 25% si la comparamos con una estrategia cognitiva basada en el sensado periódico del espectro para el cambio de canal de acuerdo a un nivel de ruido fijado. Este algoritmo se comporta de forma similar independientemente del nivel de ruido siempre que éste sea espacialmente uniformemente. Esta estrategia, a pesar de su sencillez, nos asegura el comportamiento óptimo en cuanto a consumo energético debido a la utilización de teoría de juegos en la fase de diseño del comportamiento de los nodos. La estrategia colaborativa presenta mejoras respecto a la anterior en términos de protección frente al ruido en escenarios de ruido más complejos donde aporta una mejora del 50% comparada con la estrategia anterior. ABSTRACT Energy consumption in Wireless Sensor Networks (WSNs) is a known historical problem that has been addressed from different areas and on many levels. But this problem should not only be approached from the point of view of their own efficiency for survival. A major portion of communication traffic has migrated to mobile networks and systems. The increased use of smart devices and the introduction of the Internet of Things (IoT) give WSNs a great influence on the carbon footprint. Thus, optimizing the energy consumption of wireless networks could reduce their environmental impact considerably. In recent years, another problem has been added to the equation: spectrum saturation. Wireless Sensor Networks usually operate in unlicensed spectrum bands such as Industrial, Scientific, and Medical (ISM) bands shared with other networks (mainly Wi-Fi and Bluetooth). To address the efficient spectrum utilization problem, Cognitive Radio (CR) has emerged as the key technology that enables opportunistic access to the spectrum. Therefore, the introduction of cognitive capabilities to WSNs allows optimizing their spectral occupation. Cognitive Wireless Sensor Networks (CWSNs) do not only increase the reliability of communications, but they also have a positive impact on parameters such as the Quality of Service (QoS), network security, or energy consumption. These new opportunities introduced by CWSNs unveil a wide field in the energy consumption research area. However, this also implies some challenges. Specifically, the spectrum sensing stage, collaboration among devices (which requires extra communication), and changes in the transmission parameters increase the total energy consumption of the network. When designing CWSN optimization strategies, the fact that WSN nodes are very limited in terms of memory, computational power, or energy consumption has to be considered. Thus, light strategies that require a low computing capacity must be found. Since the field of energy conservation in WSNs has been widely explored, we assume that new strategies could emerge from the new opportunities presented by cognitive networks. In this PhD Thesis, we present two strategies for energy consumption reduction in CWSNs supported by three main pillars. The first pillar is that cognitive capabilities added to the WSN provide the ability to change the transmission parameters according to the spectrum. The second pillar is that the ability to collaborate is a basic characteristic of CWSNs. Finally, the third pillar for this work is the game theory as a decision-making algorithm, which has been widely used in WSNs due to its lightness and simplicity that make it valid to operate in CWSNs. For the development of these strategies, a complete analysis of the possibilities is first carried out by incorporating the cognitive abilities into the network. Once this analysis has been performed, we expose the hypotheses of this thesis related to the use of cognitive capabilities as a useful tool to reduce energy consumption in CWSNs. Once the analyses are exposed, we present the main contribution of this thesis: the two designed strategies for energy consumption reduction based on game theory and cognitive capabilities. The first one is based on a non-cooperative game played between two players in a simple and selfish way. In the second strategy, the concept of collaboration is introduced. Despite the fact that the game used is also a non-cooperative game, the decisions are taken through collaboration. For each strategy, we present the modeled game, the formal analysis of equilibrium and optimum, and the complete strategy describing the interaction between nodes. In order to test the strategies through simulation and implementation in real devices, we have developed a CWSN framework composed by a CWSN simulator based on Castalia and a testbed based on CWSN nodes able to communicate in three different ISM bands. We present and discuss the results derived by the energy optimization strategies. The first strategy brings energy improvement rates of over 65% compared to WSN without cognitive techniques. It also brings energy improvement rates of over 25% compared with sensing strategies for changing channels based on a decision threshold. We have also seen that the algorithm behaves similarly even with significant variations in the level of noise while working in a uniform noise scenario. The collaborative strategy presents improvements respecting the previous strategy in terms of noise protection when the noise scheme is more complex where this strategy shows improvement rates of over 50%.
Resumo:
Los Centros de Datos se encuentran actualmente en cualquier sector de la economía mundial. Están compuestos por miles de servidores, dando servicio a los usuarios de forma global, las 24 horas del día y los 365 días del año. Durante los últimos años, las aplicaciones del ámbito de la e-Ciencia, como la e-Salud o las Ciudades Inteligentes han experimentado un desarrollo muy significativo. La necesidad de manejar de forma eficiente las necesidades de cómputo de aplicaciones de nueva generación, junto con la creciente demanda de recursos en aplicaciones tradicionales, han facilitado el rápido crecimiento y la proliferación de los Centros de Datos. El principal inconveniente de este aumento de capacidad ha sido el rápido y dramático incremento del consumo energético de estas infraestructuras. En 2010, la factura eléctrica de los Centros de Datos representaba el 1.3% del consumo eléctrico mundial. Sólo en el año 2012, el consumo de potencia de los Centros de Datos creció un 63%, alcanzando los 38GW. En 2013 se estimó un crecimiento de otro 17%, hasta llegar a los 43GW. Además, los Centros de Datos son responsables de más del 2% del total de emisiones de dióxido de carbono a la atmósfera. Esta tesis doctoral se enfrenta al problema energético proponiendo técnicas proactivas y reactivas conscientes de la temperatura y de la energía, que contribuyen a tener Centros de Datos más eficientes. Este trabajo desarrolla modelos de energía y utiliza el conocimiento sobre la demanda energética de la carga de trabajo a ejecutar y de los recursos de computación y refrigeración del Centro de Datos para optimizar el consumo. Además, los Centros de Datos son considerados como un elemento crucial dentro del marco de la aplicación ejecutada, optimizando no sólo el consumo del Centro de Datos sino el consumo energético global de la aplicación. Los principales componentes del consumo en los Centros de Datos son la potencia de computación utilizada por los equipos de IT, y la refrigeración necesaria para mantener los servidores dentro de un rango de temperatura de trabajo que asegure su correcto funcionamiento. Debido a la relación cúbica entre la velocidad de los ventiladores y el consumo de los mismos, las soluciones basadas en el sobre-aprovisionamiento de aire frío al servidor generalmente tienen como resultado ineficiencias energéticas. Por otro lado, temperaturas más elevadas en el procesador llevan a un consumo de fugas mayor, debido a la relación exponencial del consumo de fugas con la temperatura. Además, las características de la carga de trabajo y las políticas de asignación de recursos tienen un impacto importante en los balances entre corriente de fugas y consumo de refrigeración. La primera gran contribución de este trabajo es el desarrollo de modelos de potencia y temperatura que permiten describes estos balances entre corriente de fugas y refrigeración; así como la propuesta de estrategias para minimizar el consumo del servidor por medio de la asignación conjunta de refrigeración y carga desde una perspectiva multivariable. Cuando escalamos a nivel del Centro de Datos, observamos un comportamiento similar en términos del balance entre corrientes de fugas y refrigeración. Conforme aumenta la temperatura de la sala, mejora la eficiencia de la refrigeración. Sin embargo, este incremente de la temperatura de sala provoca un aumento en la temperatura de la CPU y, por tanto, también del consumo de fugas. Además, la dinámica de la sala tiene un comportamiento muy desigual, no equilibrado, debido a la asignación de carga y a la heterogeneidad en el equipamiento de IT. La segunda contribución de esta tesis es la propuesta de técnicas de asigación conscientes de la temperatura y heterogeneidad que permiten optimizar conjuntamente la asignación de tareas y refrigeración a los servidores. Estas estrategias necesitan estar respaldadas por modelos flexibles, que puedan trabajar en tiempo real, para describir el sistema desde un nivel de abstracción alto. Dentro del ámbito de las aplicaciones de nueva generación, las decisiones tomadas en el nivel de aplicación pueden tener un impacto dramático en el consumo energético de niveles de abstracción menores, como por ejemplo, en el Centro de Datos. Es importante considerar las relaciones entre todos los agentes computacionales implicados en el problema, de forma que puedan cooperar para conseguir el objetivo común de reducir el coste energético global del sistema. La tercera contribución de esta tesis es el desarrollo de optimizaciones energéticas para la aplicación global por medio de la evaluación de los costes de ejecutar parte del procesado necesario en otros niveles de abstracción, que van desde los nodos hasta el Centro de Datos, por medio de técnicas de balanceo de carga. Como resumen, el trabajo presentado en esta tesis lleva a cabo contribuciones en el modelado y optimización consciente del consumo por fugas y la refrigeración de servidores; el modelado de los Centros de Datos y el desarrollo de políticas de asignación conscientes de la heterogeneidad; y desarrolla mecanismos para la optimización energética de aplicaciones de nueva generación desde varios niveles de abstracción. ABSTRACT Data centers are easily found in every sector of the worldwide economy. They consist of tens of thousands of servers, serving millions of users globally and 24-7. In the last years, e-Science applications such e-Health or Smart Cities have experienced a significant development. The need to deal efficiently with the computational needs of next-generation applications together with the increasing demand for higher resources in traditional applications has facilitated the rapid proliferation and growing of data centers. A drawback to this capacity growth has been the rapid increase of the energy consumption of these facilities. In 2010, data center electricity represented 1.3% of all the electricity use in the world. In year 2012 alone, global data center power demand grew 63% to 38GW. A further rise of 17% to 43GW was estimated in 2013. Moreover, data centers are responsible for more than 2% of total carbon dioxide emissions. This PhD Thesis addresses the energy challenge by proposing proactive and reactive thermal and energy-aware optimization techniques that contribute to place data centers on a more scalable curve. This work develops energy models and uses the knowledge about the energy demand of the workload to be executed and the computational and cooling resources available at data center to optimize energy consumption. Moreover, data centers are considered as a crucial element within their application framework, optimizing not only the energy consumption of the facility, but the global energy consumption of the application. The main contributors to the energy consumption in a data center are the computing power drawn by IT equipment and the cooling power needed to keep the servers within a certain temperature range that ensures safe operation. Because of the cubic relation of fan power with fan speed, solutions based on over-provisioning cold air into the server usually lead to inefficiencies. On the other hand, higher chip temperatures lead to higher leakage power because of the exponential dependence of leakage on temperature. Moreover, workload characteristics as well as allocation policies also have an important impact on the leakage-cooling tradeoffs. The first key contribution of this work is the development of power and temperature models that accurately describe the leakage-cooling tradeoffs at the server level, and the proposal of strategies to minimize server energy via joint cooling and workload management from a multivariate perspective. When scaling to the data center level, a similar behavior in terms of leakage-temperature tradeoffs can be observed. As room temperature raises, the efficiency of data room cooling units improves. However, as we increase room temperature, CPU temperature raises and so does leakage power. Moreover, the thermal dynamics of a data room exhibit unbalanced patterns due to both the workload allocation and the heterogeneity of computing equipment. The second main contribution is the proposal of thermal- and heterogeneity-aware workload management techniques that jointly optimize the allocation of computation and cooling to servers. These strategies need to be backed up by flexible room level models, able to work on runtime, that describe the system from a high level perspective. Within the framework of next-generation applications, decisions taken at this scope can have a dramatical impact on the energy consumption of lower abstraction levels, i.e. the data center facility. It is important to consider the relationships between all the computational agents involved in the problem, so that they can cooperate to achieve the common goal of reducing energy in the overall system. The third main contribution is the energy optimization of the overall application by evaluating the energy costs of performing part of the processing in any of the different abstraction layers, from the node to the data center, via workload management and off-loading techniques. In summary, the work presented in this PhD Thesis, makes contributions on leakage and cooling aware server modeling and optimization, data center thermal modeling and heterogeneityaware data center resource allocation, and develops mechanisms for the energy optimization for next-generation applications from a multi-layer perspective.
Resumo:
La presente Tesis está orientada al análisis de la supervisión multidistribuida de tres procesos agroalimentarios: el secado solar, el transporte refrigerado y la fermentación de café, a través de la información obtenida de diferentes dispositivos de adquisición de datos, que incorporan sensores, así como el desarrollo de metodologías de análisis de series temporales, modelos y herramientas de control de procesos para la ayuda a la toma de decisiones en las operaciones de estos entornos. En esta tesis se han utilizado: tarjetas RFID (TemTrip®) con sistema de comunicación por radiofrecuencia y sensor de temperatura; el registrador (i-Button®), con sensor integrado de temperatura y humedad relativa y un tercer prototipo empresarial, módulo de comunicación inalámbrico Nlaza, que integra un sensor de temperatura y humedad relativa Sensirion®. Estos dispositivos se han empleado en la conformación de redes multidistribuidas de sensores para la supervisión de: A) Transportes de producto hortofrutícola realizados en condiciones comerciales reales, que son: dos transportes terrestre de producto de IV gama desde Murcia a Madrid; transporte multimodal (barco-barco) de limones desde Montevideo (Uruguay) a Cartagena (España) y transporte multimodal (barco-camión) desde Montevideo (Uruguay) a Verona (Italia). B) dos fermentaciones de café realizadas en Popayán (Colombia) en un beneficiadero. Estas redes han permitido registrar la dinámica espacio-temporal de temperaturas y humedad relativa de los procesos estudiados. En estos procesos de transporte refrigerado y fermentación la aplicación de herramientas de visualización de datos y análisis de conglomerados, han permitido identificar grupos de sensores que presentan patrones análogos de sus series temporales, caracterizando así zonas con dinámicas similares y significativamente diferentes del resto y permitiendo definir redes de sensores de menor densidad cubriendo las diferentes zonas identificadas. Las metodologías de análisis complejo de las series espacio-temporales (modelos psicrométricos, espacio de fases bidimensional e interpolaciones espaciales) permitieron la cuantificación de la variabilidad del proceso supervisado tanto desde el punto de vista dinámico como espacial así como la identificación de eventos. Constituyendo así herramientas adicionales de ayuda a la toma de decisiones en el control de los procesos. Siendo especialmente novedosa la aplicación de la representación bidimensional de los espacios de fases en el estudio de las series espacio-temporales de variables ambientales en aplicaciones agroalimentarias, aproximación que no se había realizado hasta el momento. En esta tesis también se ha querido mostrar el potencial de un sistema de control basado en el conocimiento experto como es el sistema de lógica difusa. Se han desarrollado en primer lugar, los modelos de estimación del contenido en humedad y las reglas semánticas que dirigen el proceso de control, el mejor modelo se ha seleccionado mediante un ensayo de secado realizado sobre bolas de hidrogel como modelo alimentario y finalmente el modelo se ha validado mediante un ensayo en el que se deshidrataban láminas de zanahoria. Los resultados sugirieron que el sistema de control desarrollado, es capaz de hacer frente a dificultades como las variaciones de temperatura día y noche, consiguiendo un producto con buenas características de calidad comparables a las conseguidas sin aplicar ningún control sobre la operación y disminuyendo así el consumo energético en un 98% con respecto al mismo proceso sin control. La instrumentación y las metodologías de análisis de datos implementadas en esta Tesis se han mostrado suficientemente versátiles y transversales para ser aplicadas a diversos procesos agroalimentarios en los que la temperatura y la humedad relativa sean criterios de control en dichos procesos, teniendo una aplicabilidad directa en el sector industrial ABSTRACT This thesis is focused on the analysis of multi-distributed supervision of three agri-food processes: solar drying, refrigerated transport and coffee fermentation, through the information obtained from different data acquisition devices with incorporated sensors, as well as the development of methodologies for analyzing temporary series, models and tools to control processes in order to help in the decision making in the operations within these environments. For this thesis the following has been used: RFID tags (TemTrip®) with a Radiofrequency ID communication system and a temperature sensor; the recorder (i-Button®), with an integrated temperature and relative humidity and a third corporate prototype, a wireless communication module Nlaza, which has an integrated temperature and relative humidity sensor, Sensirion®. These devices have been used in creating three multi-distributed networks of sensors for monitoring: A) Transport of fruits and vegetables made in real commercial conditions, which are: two land trips of IV range products from Murcia to Madrid; multimodal transport (ship - ship) of lemons from Montevideo (Uruguay) to Cartagena (Spain) and multimodal transport (ship - truck) from Montevideo (Uruguay) to Verona (Italy). B) Two coffee fermentations made in Popayan (Colombia) in a coffee processing plant. These networks have allowed recording the time space dynamics of temperatures and relative humidity of the processed under study. Within these refrigerated transport and fermentation processes, the application of data display and cluster analysis tools have allowed identifying sensor groups showing analogical patterns of their temporary series; thus, featuring areas with similar and significantly different dynamics from the others and enabling the definition of lower density sensor networks covering the different identified areas. The complex analysis methodologies of the time space series (psychrometric models, bi-dimensional phase space and spatial interpolation) allowed quantifying the process variability of the supervised process both from the dynamic and spatial points of view; as well as the identification of events. Thus, building additional tools to aid decision-making on process control brought the innovative application of the bi-dimensional representation of phase spaces in the study of time-space series of environmental variables in agri-food applications, an approach that had not been taken before. This thesis also wanted to show the potential of a control system based on specialized knowledge such as the fuzzy logic system. Firstly, moisture content estimation models and semantic rules directing the control process have been developed, the best model has been selected by an drying assay performed on hydrogel beads as food model; and finally the model has been validated through an assay in which carrot sheets were dehydrated. The results suggested that the control system developed is able to cope with difficulties such as changes in temperature daytime and nighttime, getting a product with good quality features comparable to those features achieved without applying any control over the operation and thus decreasing consumption energy by 98% compared to the same uncontrolled process. Instrumentation and data analysis methodologies implemented in this thesis have proved sufficiently versatile and cross-cutting to apply to several agri-food processes in which the temperature and relative humidity are the control criteria in those processes, having a direct effect on the industry sector.
Resumo:
Pensar en arquitectura dinámica es pensar en arquitectura viva, en edificios que ya no tienen cerramientos sino pieles, edificios inteligentes capaces de pensar, reaccionar y adaptarse al medio para protegerse de él y ahorrar energía. El interés por diseñar edificios en armonía con el ambiente ha ido variando a lo largo de la historia. Desde una preocupación por el clima en las primeras construcciones de la historia y especialmente en los edificios entre 1890 y 1930, el interés por una arquitectura eficiente se perdió en la mayoría de los edificios del siglo XX con la incorporación del aire acondicionado, lo que condujo hacia una arquitectura hermética sin ventilación natural. No se hablará de climatización eficiente hasta la crisis del petróleo de 1973, cuando las fachadas comienzan a cobrar de nuevo un papel fundamental. El progreso hacia una envolvente capaz de cambiar su forma y su geometría para adaptarse a los cambios del medio ha visto un gran avance en el siglo XXI, donde el desarrollo de la misma ha implicado entender el papel que tiene en controlar la luz y la temperatura, para llegar a ser una piel entre los mundos artificial y natural y que permita emplear las instalaciones de climatización únicamente como sistema de apoyo. Este trabajo pretende poner de manifiesto la importancia de la envolvente del edificio como medio de ahorro del consumo energético, explorando soluciones dinámicas e innovadoras que supondrán los cimientos de una nueva arquitectura
Resumo:
El término Passivhaus es entendido como un estándar de construcción, basado en la arquitectura sostenible, es decir, busca que el edificio sea energéticamente eficiente, de gran confort interior, económicamente asequible y ecológico. Todos estos aspectos se trabajan simultáneamente a la hora de proyectar un edificio Passivhaus. En los últimos años el cambio climático se ha convertido en una de las preocupaciones a las que el sector de la construcción ha tenido que enfrentarse, dando soluciones tanto de ejecución como de diseño. En un marco de cambio climático, la Unión Europea ha lanzado una nueva normativa donde los edificios de consumo energético casi nulo se convierten en un tema de gran importancia y actualidad, puesto que cada país deberá responder a la normativa según sus condiciones climáticas. En este trabajo se ha estudiado el estándar Passivhaus y se han analizado varios edificios construidos bajo el estándar en diversas condiciones climáticas. Para este estudio se han realizado una serie de fichas para cada uno de los ejemplos, compuestas por una breve explicación del proyecto, datos generales del edificio, características del lugar, envolvente térmica, sistemas mecánicos y demandas obtenidas. En la explicación del proyecto, se exponen las distintas estrategias que se han tenido en cuenta a la hora de proyectar el edificio pasivo. A su vez, resulta de gran interés establecer una comparación entre las características de los proyectos Passivhaus de los diversos climas para así llegar a ciertas conclusiones, por lo que se aportan datos del lugar y climáticos, así como datos de la composición y transmitancias térmicas de las envolventes, soleras, cubiertas y ventanas. También son de gran importancia en los edificios Passivhaus, los sistemas mecánicos empleados, como el recuperador de calor, los empleados para la producción de ACS o calefacción, o el uso de energías renovables. En primer lugar se han estudiado cinco Passivhaus construidas en Alemania, puesto que este estándar se conformó bajo las exigencias climáticas de este país. A continuación, se han analizado ejemplos construidos en España, diferenciando entre los distintos climas que se dan en la Península, puesto que las respuestas constructivas dentro de la misma han de ser distintas. En ambos casos se explican las condiciones climáticas, así como las necesidades de los mismos y apoyándose de ejemplos para comparar cómo lo ha resuelto el estándar Passivhaus. Se ha podido concluir en este trabajo la importancia del clima local a la hora de establecer estrategias tanto constructivas como de proyecto. Mientras que las demandas energéticas deberán ser las mismas independientemente del lugar, las respuestas constructivas y de diseño tendrán que ser completamente distintas según las condiciones climáticas. Dicho esto, se deberán replantear las estrategias del estándar Passivhaus al aplicarlo en el clima mediterráneo. Al final del trabajo, se propone una serie de estrategias a seguir para la adaptación de este estándar al clima mediterráneo.
Resumo:
El consumo de energía es responsable de una parte importante de las emisiones a la atmósfera de CO2, que es uno de los principales causantes del efecto invernadero en nuestro planeta. El aprovechamiento de la energía solar para la producción de agua caliente, permite economizar energía y disminuir el impacto del consumo energético sobre el medio ambiente y por tanto un menor impacto medioambiental. El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como apoyo a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Para el estudio se utilizaron 3 digestores, dos delos cuales se calentaron con agua caliente en el interior de un serpentín (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores .La comparación de los digestores 1 y 2 nos permitió estudiar la conveniencia de proveer de aislamiento al digestor. La transferencia de calor mediante serpentín de cobre dio valores comprendidos entre 83 y 92%. La aplicación de la instalación a una depuradora a escala real para mantenimiento en el interior del digestor a T=32ºC en diferentes climas: climas templados, cálidos y fríos, consistió en el cálculo de la superficie de colectores solares y superficie de serpentín necesario para cubrir las necesidades energéticas anuales de dicho digestor, así como el estudio de rentabilidad de la instalación, dando los mejores resultados para climas cálidos con períodos de retorno de 12 años y una tasa interna de rentabilidad (TIR) del 16% obteniendo una cobertura anual del 79% de las necesidades energéticas con energía solar térmica. Energy consumption accounts for a significant part of the emissions of CO2, which is one of the main causes of the greenhouse effect on our planet. The use of solar energy for hot water production. can save energy and reduce the impact of energy consumption on the environment and therefore a reduced environmental impact. The objective of this research is to study the solar utilization for heating the sludge in anaerobic digesters by hot water circulating inside a coil surrounding the surface of digester, to support conventional heating methods sludge as the electrical resistance or heat exchanger by energy generated by the methane gas produced in the anaerobic digestion. To study 3 digesters used two models which are heated with hot water within a coil (one insulated by a layer of fiberglass and polyurethane and other uninsulated) .The third digester had no external heating in order to observe their behavior and compare their evolution with the rest of the .The comparison digesters digesters 1 and 2 allowed us to study the advisability of providing insulation to the digester. Heat transfer through copper coil gave values between 83 and 92%. The installation application to a treatment for maintaining full scale within the digester at T = 32ºC in different climates: temperate, warm and cold climates, consisted of calculating the surface area of solar collectors and coil required to cover the annual energy needs of the digester, and the study of profitability of the installation, giving the best results for hot climates with return periods of 12 years and an internal rate of return (IRR) of 16% achieving an annual coverage of 79 % of energy needs with solar energy.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
La intervención consistirá en una sustitución parcial o total de los materiales preexistentes con el objetivo de poder reducir en lo posible el consumo energético y la huella de CO2 producidas por el edificio debido a estos materiales, a su procesamiento, a su transporte y su fin de vida
Resumo:
Una red de sensores inalámbrica es un conjunto de dispositivos electrónicos que se comunican entre sí sin la necesidad de una infraestructura, recogiendo información del entorno en el que han sido desplegados, procesándola y transmitiéndola hasta una estación base mediante saltos sucesivos entre los nodos de la red (multi-salto). Durante las dos últimas décadas, este campo ha sido muy desarrollado en la comunidad científica, debido a las ventajas que ofrece el despliegue de una red inalámbrica en un entorno con el fin de estudiarlo y/o controlarlo. La ausencia de una infraestructura, junto con el reducido tamaño de los nodos, permite este estudio sin que dicho entorno se vea significativamente afectado por factores externos como pueda ser la presencia humana, permitiendo además aumentar el número de nodos que componen la red o cambiar la posición de algunos de ellos sin que sea necesario reconfigurarla manualmente. El principal reto que presentan las redes de sensores inalámbricas es su autonomía. En general, se requiere que un nodo tenga la capacidad de funcionar durante largos períodos de tiempo (varios meses o incluso un año) antes de que su batería se agote. Esto hace de la gestión del consumo energético un aspecto crítico en el diseño de la red y sus nodos. En el presente trabajo se busca optimizar este consumo mediante la gestión del proceso de comunicación y enrutamiento de la red. Con este fin, se implementa el protocolo CTP (Collection Tree Protocol) en la plataforma Cookies desarrollada en el Centro de Electrónica Industrial (CEI) de la UPM. CTP es un protocolo de rutado centrado en los datos, que utiliza una topología en árbol, con el nodo coordinador o estación base como raíz del mismo, para la transmisión de la información desde los sensores hasta la estación base. Además, no utiliza direcciones predeterminadas, dotando a la red de la flexibilidad requerida para hacer frente a inconsistencias y/o variaciones en la densidad y tamaño de la red. La ruta escogida se basa en un gradiente de rutado decreciente, ETX (Expected Transmission Count), que representa la calidad de la conexión entre un nodo y su nodo padre. Este gradiente de enrutamiento se obtiene mediante una conversión directa a partir del LQI (Link Quality Indication) definido por el estándar IEEE 802.15.4. Esta conversión directa supone una aproximación utilizando valores umbral del LQI. Un nodo escogerá el siguiente salto que realizará el paquete a enviar seleccionando de entre sus vecinos a aquél que tenga el menor ETX, evitando de esta forma la aparición de bucles. Otro de los aspectos que supone un gran consumo es el proceso de mantenimiento de la estructura de la red, pues requiere el envío periódico de señales de control o beacons a lo largo de toda la red. El protocolo CTP aprovecha el algoritmo de goteo (Trickle Algorithm), para gestionar el mantenimiento: durante la formación de la red y cuando se detecte alguna inconsistencia, se incrementa la frecuencia de emisión de los beacons, permitiendo así una rápida propagación de las señales de control para crear o reparar las conexiones entre los nodos. En cambio, cuando la topología de la red es estable, esta frecuencia de emisión se reduce significativamente, limitándose a asegurar que la topología se mantiene estable y favoreciendo así el ahorro de energía.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.
Resumo:
En la última década la potencia instalada de energía solar fotovoltaica ha crecido una media de un 49% anual y se espera que alcance el 16%del consumo energético mundial en el año 2050. La mayor parte de estas instalaciones se corresponden con sistemas conectados a la red eléctrica y un amplio porcentaje de ellas son instalaciones domésticas o en edificios. En el mercado ya existen diferentes arquitecturas para este tipo de instalaciones, entre las que se encuentras los módulos AC. Un módulo AC consiste en un inversor, también conocido como micro-inversor, que se monta en la parte trasera de un panel o módulo fotovoltaico. Esta tecnología ofrece modularidad, redundancia y la extracción de la máxima potencia de cada panel solar de la instalación. Además, la expansión de esta tecnología posibilitará una reducción de costes asociados a las economías de escala y a la posibilidad de que el propio usuario pueda componer su propio sistema. Sin embargo, el micro-inversor debe ser capaz de proporcionar una ganancia de tensión adecuada para conectar el panel solar directamente a la red, mientras mantiene un rendimiento aceptable en un amplio rango de potencias. Asimismo, los estándares de conexión a red deber ser satisfechos y el tamaño y el tiempo de vida del micro-inversor son factores que han de tenerse siempre en cuenta. En esta tesis se propone un micro-inversor derivado de la topología “forward” controlado en el límite entre los modos de conducción continuo y discontinuo (BCM por sus siglas en inglés). El transformador de la topología propuesta mantiene la misma estructura que en el convertidor “forward” clásico y la utilización de interruptores bidireccionales en el secundario permite la conexión directa del inversor a la red. Asimismo el método de control elegido permite obtener factor de potencia cercano a la unidad con una implementación sencilla. En la tesis se presenta el principio de funcionamiento y los principales aspectos del diseño del micro-inversor propuesto. Con la idea de mantener una solución sencilla y de bajo coste, se ha seleccionado un controlador analógico que está originalmente pensado para controlar un corrector del factor de potencia en el mismo modo de conducción que el micro-inversor “forward”. La tesis presenta las principales modificaciones necesarias, con especial atención a la detección del cruce por cero de la corriente (ZCD por sus siglas en inglés) y la compatibilidad del controlador con la inclusión de un algoritmo de búsqueda del punto de máxima potencia (MPPT por sus siglas en inglés). Los resultados experimentales muestran las limitaciones de la implementación elegida e identifican al transformador como el principal contribuyente a las pérdidas del micro-inversor. El principal objetivo de esta tesis es contribuir a la aplicación de técnicas de control y diseño de sistemas multifase en micro-inversores fotovoltaicos. En esta tesis se van a considerar dos configuraciones multifase diferentes aplicadas al micro-inversor “forward” propuesto. La primera consiste en una variación con conexión paralelo-serie que permite la utilización de transformadores con una relación de vueltas baja, y por tanto bien acoplados, para conseguir una ganancia de tensión adecuada con un mejor rendimiento. Esta configuración emplea el mismo control BCM cuando la potencia extraída del panel solar es máxima. Este método de control implica que la frecuencia de conmutación se incrementa considerablemente cuando la potencia decrece, lo que compromete el rendimiento. Por lo tanto y con la intención de mantener unos bueno niveles de rendimiento ponderado, el micro-inversor funciona en modo de conducción discontinuo (DCM, por sus siglas en inglés) cuando la potencia extraía del panel solar es menor que la máxima. La segunda configuración multifase considerada en esta tesis es la aplicación de la técnica de paralelo con entrelazado. Además se han considerado dos técnicas diferentes para decidir el número de fases activas: dependiendo de la potencia continua extraída del panel solar y dependiendo de la potencia instantánea demandada por el micro-inversor. La aplicación de estas técnicas es interesante en los sistemas fotovoltaicos conectados a la red eléctrica por la posibilidad que brindan de obtener un rendimiento prácticamente plano en un amplio rango de potencia. Las configuraciones con entrelazado se controlan en DCM para evitar la necesidad de un control de corriente, lo que es importante cuando el número de fases es alto. Los núcleos adecuados para todas las configuraciones multifase consideradas se seleccionan usando el producto de áreas. Una vez seleccionados los núcleos se ha realizado un diseño detallado de cada uno de los transformadores. Con la información obtenida de los diseños y los resultados de simulación, se puede analizar el impacto que el número de transformadores utilizados tiene en el tamaño y el rendimiento de las distintas configuraciones. Los resultados de este análisis, presentado en esta tesis, se utilizan posteriormente para comparar las distintas configuraciones. Muchas otras topologías se han presentado en la literatura para abordar los diferentes aspectos a considerar en los micro-inversores, que han sido presentados anteriormente. La mayoría de estas topologías utilizan un transformador de alta frecuencia para solventar el salto de tensión y evitar problemas de seguridad y de puesta a tierra. En cualquier caso, es interesante evaluar si topologías sin aislamiento galvánico son aptas para su utilización como micro-inversores. En esta tesis se presenta una revisión de inversores con capacidad de elevar tensión, que se comparan bajo las mismas especificaciones. El objetivo es proporcionar la información necesaria para valorar si estas topologías son aplicables en los módulos AC. Las principales contribuciones de esta tesis son: • La aplicación del control BCM a un convertidor “forward” para obtener un micro-inversor de una etapa sencillo y de bajo coste. • La modificación de dicho micro-inversor con conexión paralelo-series de transformadores que permite reducir la corriente de los semiconductores y una ganancia de tensión adecuada con transformadores altamente acoplados. • La aplicación de técnicas de entrelazado y decisión de apagado de fases en la puesta en paralelo del micro-inversor “forward”. • El análisis y la comparación del efecto en el tamaño y el rendimiento del incremento del número de transformadores en las diferentes configuraciones multifase. • La eliminación de las medidas y los lazos de control de corriente en las topologías multifase con la utilización del modo de conducción discontinuo y un algoritmo MPPT sin necesidad de medida de corriente. • La recopilación y comparación bajo las mismas especificaciones de topologías inversoras con capacidad de elevar tensión, que pueden ser adecuadas para la utilización como micro-inversores. Esta tesis está estructurada en seis capítulos. El capítulo 1 presenta el marco en que se desarrolla la tesis así como el alcance de la misma. En el capítulo 2 se recopilan las topologías existentes de micro-invesores con aislamiento y aquellas sin aislamiento cuya implementación en un módulo AC es factible. Asimismo se presenta la comparación entre estas topologías bajo las mismas especificaciones. El capítulo 3 se centra en el micro-inversor “forward” que se propone originalmente en esta tesis. La aplicación de las técnicas multifase se aborda en los capítulos 4 y 5, en los que se presentan los análisis en función del número de transformadores. El capítulo está orientado a la propuesta paralelo-serie mientras que la configuración con entrelazado se analiza en el capítulo 5. Por último, en el capítulo 6 se presentan las contribuciones de esta tesis y los trabajos futuros. ABSTRACT In the last decade the photovoltaic (PV) installed power increased with an average growth of 49% per year and it is expected to cover the 16% of the global electricity consumption by 2050. Most of the installed PV power corresponds to grid-connected systems, with a significant percentage of residential installations. In these PV systems, the inverter is essential since it is the responsible of transferring into the grid the extracted power from the PV modules. Several architectures have been proposed for grid-connected residential PV systems, including the AC-module technology. An AC-module consists of an inverter, also known as micro-inverter, which is attached to a PV module. The AC-module technology offers modularity, redundancy and individual MPPT of each module. In addition, the expansion of this technology will enable the possibility of economies of scale of mass market and “plug and play” for the user, thus reducing the overall cost of the installation. However, the micro-inverter must be able to provide the required voltage boost to interface a low voltage PV module to the grid while keeping an acceptable efficiency in a wide power range. Furthermore, the quality standards must be satisfied and size and lifetime of the solutions must be always considered. In this thesis a single-stage forward micro-inverter with boundary mode operation is proposed to address the micro-inverter requirements. The transformer in the proposed topology remains as in the classic forward converter and bidirectional switches in the secondary side allows direct connection to the grid. In addition the selected control strategy allows high power factor current with a simple implementation. The operation of the topology is presented and the main design issues are introduced. With the intention to propose a simple and low-cost solution, an analog controller for a PFC operated in boundary mode is utilized. The main necessary modifications are discussed, with the focus on the zero current detection (ZCD) and the compatibility of the controller with a MPPT algorithm. The experimental results show the limitations of the selected analog controller implementation and the transformer is identified as a main losses contributor. The main objective of this thesis is to contribute in the application of control and design multiphase techniques to the PV micro-inverters. Two different multiphase configurations have been applied to the forward micro-inverter proposed in this thesis. The first one consists of a parallel-series connected variation which enables the use of low turns ratio, i.e. well coupled, transformers to achieve a proper voltage boost with an improved performance. This multiphase configuration implements BCM control at maximum load however. With this control method the switching frequency increases significantly for light load operation, thus jeopardizing the efficiency. Therefore, in order to keep acceptable weighted efficiency levels, DCM operation is selected for low power conditions. The second multiphase variation considered in this thesis is the interleaved configuration with two different phase shedding techniques: depending on the DC power extracted from the PV panel, and depending on the demanded instantaneous power. The application of interleaving techniques is interesting in PV grid-connected inverters for the possibility of flat efficiency behavior in a wide power range. The interleaved variations of the proposed forward micro-inverter are operated in DCM to avoid the current loop, which is important when the number of phases is large. The adequate transformer cores for all the multiphase configurations are selected according to the area product parameter and a detailed design of each required transformer is developed. With this information and simulation results, the impact in size and efficiency of the number of transformer used can be assessed. The considered multiphase topologies are compared in this thesis according to the results of the introduced analysis. Several other topological solutions have been proposed to solve the mentioned concerns in AC-module application. The most of these solutions use a high frequency transformer to boost the voltage and avoid grounding and safety issues. However, it is of interest to assess if the non-isolated topologies are suitable for AC-module application. In this thesis a review of transformerless step-up inverters is presented. The compiled topologies are compared using a set benchmark to provide the necessary information to assess whether non-isolated topologies are suitable for AC-module application. The main contributions of this thesis are: • The application of the boundary mode control with constant off-time to a forward converter, to obtain a simple and low-cost single-stage forward micro-inverter. • A modification of the forward micro-inverter with primary-parallel secondary-series connected transformers to reduce the current stress and improve the voltage gain with highly coupled transformers. •The application of the interleaved configuration with different phase shedding strategies to the proposed forward micro-inverter. • An analysis and comparison of the influence in size and efficiency of increasing the number of transformers in the parallel-series and interleaved multiphase configurations. • Elimination of the current loop and current measurements in the multiphase topologies by adopting DCM operation and a current sensorless MPPT. • A compilation and comparison with the same specifications of suitable non-isolated step-up inverters. This thesis is organized in six chapters. In Chapter 1 the background of single-phase PV-connected systems is discussed and the scope of the thesis is defined. Chapter 2 compiles the existing solutions for isolated micro-inverters and transformerless step-up inverters suitable for AC-module application. In addition, the most convenient non-isolated inverters are compared using a defined benchmark. Chapter 3 focuses on the originally proposed single-stage forward micro-inverter. The application of multiphase techniques is addressed in Chapter 4 and Chapter 5, and the impact in different parameters of increasing the number of phases is analyzed. In Chapter 4 an original primary-parallel secondary-series variation of the forward micro-inverter is presented, while Chapter 5 focuses on the application of the interleaved configuration. Finally, Chapter 6 discusses the contributions of the thesis and the future work.
Resumo:
La principal motivación para la elección del tema de la tesis es nuestra realidad energética y ambiental. Y más específicamente, la necesidad urgente de dar una respuesta a esta realidad desde el sector de la edificación. Por lo que, el trabajo parte de la búsqueda de soluciones pasivas que ayuden a la reducción del consumo energético y de las emisiones de C02 de los edificios, tanto nuevos como existentes. El objeto de estudio son aplicaciones innovadoras, basadas en el uso de materiales reactivos, con un efecto térmico de memoria bidireccional. La energía es un elemento imprescindible para el desarrollo. Sin embargo, el modelo energético predominante, basado principalmente en la utilización de combustibles de origen fósil, es uno de los importantes responsables del deterioro ambiental que sufre el planeta. Además, sus reservas son limitadas y están concentradas en unas pocas regiones del mundo, lo que genera problemas de dependencia, competitividad y de seguridad de suministro. Dado el gran potencial de ahorro energético del sector de la edificación, la Unión Europea en sus directivas enfatiza la necesidad de mejorar la eficiencia energética de los edificios. Añadiendo, además, la obligatoriedad de desarrollar edificios “energía casi nula”, cuyo prerrequisito es tener un muy alto rendimiento energético. En España, los edificios son responsables del 31% del consumo de energía primaria. La mayor parte de este consumo se relaciona a la utilización de sistemas activos de acondicionamiento. Una medida efectiva para reducir la demanda es mejorar la envolvente. Sin embargo, hay que buscar estrategias adicionales para aumentar aún más la eficiencia de los edificios nuevos y existentes. Para los climas de España, el uso de la inercia térmica ha probado ser una estrategia válida. Sin embargo, su funcionamiento está vinculado al peso y al volumen de los materiales utilizados. Esto limita sus posibilidades en la rehabilitación energética y en los nuevos edificios basados en la construcción ligera. Una alternativa es el uso de aplicaciones de almacenamiento térmico por calor latente, utilizando materiales de cambio de fase (PCM). Los PCM son sustancias con un muy alto calor de fusión, capaces de almacenar una gran cantidad de energía térmica sin requerir aumentos significativos de peso o volumen. Estas características los hacen idóneos para reducir el consumo relacionado con el acondicionamiento térmico, en edificios nuevos y existentes. En la parte preliminar de la investigación, se encontró que para lograr un aprovechamiento óptimo de las aplicaciones con PCM es necesario tener un conocimiento profundo de su funcionamiento y de las variables del sistema. De ahí que el objetivo principal de la presente tesis sea: establecer las bases para la optimizatión integral de las aplicaciones con almacenamiento de energía térmica por calor latente, identificando y validando sus variables más relevantes. La investigación consta de tres partes. La primera, documental, sistematizando y jerarquizando la información científica publicada; la segunda, numérica, basada en un análisis paramétrico de una aplicación con PCM, utilizando simulaciones térmicas; y la tercera, experimental, monitorizando el funcionamiento térmico y energético de diferentes aplicaciones con PCM en módulos a escala real. Los resultados brindan un más profundo entendimiento del funcionamiento de las aplicaciones evaluadas. Han permitido identificar sus variables relevantes, cuantificar su influencia, y determinar condiciones óptimas para su utilización así como situaciones en las que sería muy difícil justificar su uso. En el proceso, se realizó la caracterización térmica y energética de aplicaciones con PCM, tanto opacas como traslúcidas. Además, se ha encontrado que las aplicaciones con PCM son capaces de aumentar la eficiencia energética inclusive en recintos con diseños optimizados, demostrando ser una de las estrategias adecuadas para lograr el muy alto desempeño energético requerido en los edificios energía nula. ABSTRACT The main motivation for choosing the theme of the thesis is our energy and environmental reality. And more specifically, the urgent need to respond to this reality from the building sector. This is why, the work start with the search of passive solutions that help reduce energy consumption and C02 emissions of buildings, in both new and existing ones. The object of study is innovative applications based on the use of responsive materials, with bidirectional thermal memory. Energy is an essential element for development. However, the predominant energy model, based primarily on the use of fossil fuels, is one of the major responsible for the environmental deterioration of the planet, the cause of most of the CO2 emissions. Furthermore, reserves of fossil fuels are limited and are concentrated in a few regions of the world, which creates issues related to dependency, competitiveness, and security of supply. Given the large potential for energy savings in the building sector, the European Union in its directives emphasizes the need to improve energy efficiency in buildings. Also, adding the obligation to develop "nearly zero energy" buildings, whose first prerequisite is to achieve a very high energy efficiency. In Spain, buildings are responsible for 31% of primary energy consumption and most of this consumption is related to the used of HVAC systems. One of the most effective measures to reduce demand is to improve the envelope. However, it is necessary to look for additional strategies to further increase the efficiency of new and existing buildings. For the predominant climates in Spain, use of the thermal inertia may be a valid strategy. Nevertheless, its operation is linked to weight and volume of the materials used. This limits their possibilities in the existing buildings energy retrofitting and in the new buildings based on lightweight construction. An alternative is the use of latent heat thermal energy storage applications (LHTES), using phase change materials (PCM). PCM are substances with a high heat of fusion, capable of storing a large amount of thermal energy without requiring significant increases in weight or volume. These features make them ideal for reducing energy consumption associated with thermal conditioning in both new and existing buildings. In the preliminary part of the investigation, it was found that to get optimum utilization of the PCM applications is needed to have a deep understanding of its operation and, in particular, how the system variables affect its performance. Hence, the main objective of this thesis is: to establish the basis for the integral optimization of applications with latent heat thermal energy storage, identifying and validating the most relevant variables. The research comprises of three parts. The first, documentary, systematizing and prioritizing published scientific information. The second, numeric, based on a parametric analysis of an application PCM using thermal simulations. The third, experimental, monitoring the thermal and energy performance of different applications with PCM on real scale test cells. The results provide a complete understanding of the functioning of the evaluated LHTES application. They have allowed to identify their relevant variables, quantify their influence and determine optimum conditions for use as well as situations where it would be very difficult to justify its use. In the process, it was carried out the power and thermal characterization of various opaque and translucent PCM applications. Furthermore, it has been found that applications with PCM can increase the energy efficiency, even in buildings with optimized designs; proving to be one of the appropriate measures to achieve the high energy performance required in zero energy buildings.
Resumo:
Esta tesis trata sobre la construcción modular ligera, dentro del contexto de la eficiencia energética y de cara a los conceptos de nZEB (near Zero Energy Building) y NZEB (Net Zero Energy Building) que se manejan en el ámbito europeo y específicamente dentro del marco regulador de la Directiva 2010/31 UE. En el contexto de la Unión Europea, el sector de la edificación representa el 40% del total del consumo energético del continente. Asumiendo la necesidad de reducir este consumo se han planteado, desde los organismos de dirección europeos, unos objetivos (objetivos 20-20-20) para hacer más eficiente el parque edificatorio. Estos objetivos, que son vinculantes en términos de legislación, comprometen a todos los estados miembros a conseguir la meta de reducción de consumo y emisiones de GEI (Gases de Efecto Invernadero) antes del año 2020. Estos conceptos de construcción modular ligera (CML) y eficiencia energética no suelen estar asociados por el hecho de que este tipo de construcción no suele estar destinada a un uso intensivo y no cuenta con unos cerramientos con niveles de aislamiento de acuerdo a las normativas locales o códigos de edificación de cada país. El objetivo de nZEB o NZEB, e incluso Energy Plus, según sea el caso, necesariamente (y así queda establecido en las normativas), dependerá no sólo de la mejora de los niveles de aislamiento de los edificios, sino también de la implementación de sistemas de generación renovables, independientemente del tipo de sistema constructivo con el que se trabaje e incluso de la tipología edificatoria. Si bien es cierto que los niveles de industrialización de la sociedad tecnológica actual han alcanzado varias de las fases del proceso constructivo - sobre todo en cuanto a elementos compositivos de los edificios- también lo es el hecho de que las cotas de desarrollo conseguidas en el ámbito de la construcción no llegan al nivel de evolución que se puede apreciar en otros campos de las ingenierías como la aeronáutica o la industria del automóvil. Aunque desde finales del siglo pasado existen modelos y proyectos testimoniales de construcción industrializada ligera (CIL) e incluso ya a principios del siglo XX, ejemplos de construcción modular ligera (CML), como la Casa Voisin, la industrialización de la construcción de edificios no ha sido una constante progresiva con un nivel de comercialización equiparable al de la construcción masiva y pesada. Los términos construcción industrializada, construcción prefabricada, construcción modular y construcción ligera, no siempre hacen referencia a lo mismo y no siempre son sinónimos entre sí. Un edificio puede ser prefabricado y no ser modular ni ligero y tal es el caso, por poner un ejemplo, de la construcción con paneles de hormigón prefabricado. Lo que sí es una constante es que en el caso de la construcción modular ligera, la prefabricación y la industrialización, casi siempre vienen implícitas en muchos ejemplos históricos y actuales. Con relación al concepto de eficiencia energética (nZEB o incluso NZEB), el mismo no suele estar ligado a la construcción modular ligera y/o ligera industrializada; más bien se le ve unido a la idea de cerramientos masivos con gran inercia térmica propios de estándares de diseño como el Passivhaus; y aunque comúnmente a la construcción ligera se le asocian otros conceptos que le restan valor (corta vida útil; función y formas limitadas, fuera de todo orden estético; limitación en los niveles de confort, etc.), los avances que se van alcanzando en materia de tecnologías para el aprovechamiento de la energía y sistemas de generación renovables, pueden conseguir revertir estas ideas y unificar el criterio de eficiencia + construcción modular ligera. Prototipos y proyectos académicos– como el concurso Solar Decathlon que se celebra desde el año 2002 promovido por el DOE (Departamento de Energía de los Estados Unidos), y que cuenta con ediciones europeas como las de los años 2010 y 2012, replantean la idea de la construcción industrializada, modular y ligera dentro del contexto de la eficiencia energética, con prototipos de viviendas de ± 60m2, propuestos por las universidades concursantes, y cuyo objetivo es alcanzar y/o desarrollar el concepto de NZEB (Net Zero Energy Building) o edificio de energía cero. Esta opción constructiva no sólo representa durabilidad, seguridad y estética, sino también, rapidez en la fabricación y montaje, además de altas prestaciones energéticas como se ha podido demostrar en las sucesivas ediciones del Solar Decathlon. Este tipo de iniciativas de desarrollo de tecnologías constructivas, no sólo apuntan a la eficiencia energética sino al concepto global de energía neta, Energía plus o cero emisiones de CO2. El nivel de emisiones por la fabricación y puesta en obra de los materiales de construcción depende, en muchos casos, no solo de la propia naturaleza del material, sino también de la cantidad de recursos utilizados para producir una unidad de medida determinada (kg, m3, m2, ml, etc). En este sentido podría utilizarse, en muchos casos, el argumento válido de que a menos peso, y a menos tamaño, menos emisiones globales de gases de efecto invernadero y menos contaminación. Para el trabajo de investigación de esta tesis se han tomado como referencias válidas para estudio, prototipos tanto de CML (Modular 3D) como de CIL (panelizado y elementos 2D), dado que para los fines de análisis de las prestaciones energéticas de los materiales de cerramiento, ambos sistemas son equiparables. Para poder llegar a la conclusión fundamental de este trabajo de tesis doctoral - que consiste en demostrar la viabilidad tecnológica/ industrial que supone la combinación de la eficiencia energética y la construcción modular ligera - se parte del estudio del estado de la técnica ( desde la selección de los materiales y los posibles procesos de industrialización en fábrica, hasta su puesta en obra, funcionamiento y uso, bajo los conceptos de consumo cero, cero emisiones de carbono y plus energético). Además -y con un estado de la técnica que identifica la situación actual- se llevan a cabo pruebas y ensayos con un prototipo a escala natural y células de ensayo, para comprobar el comportamiento de los elementos compositivos de los mismos, frente a unas condicionantes climáticas determinadas. Este tipo de resultados se contrastan con los obtenidos mediante simulaciones informáticas basadas en los mismos parámetros y realizadas en su mayoría mediante métodos simplificados de cálculos, validados por los organismos competentes en materia de eficiencia energética en la edificación en España y de acuerdo a la normativa vigente. ABSTRACT This thesis discusses lightweight modular construction within the context of energy efficiency in nZEB (near Zero Energy Building) and NZEB (Net Zero Energy Building) both used in Europe and, specifically, within the limits of the regulatory framework of the EU Directive 2010/31. In the European Union the building sector represents 40% of the total energy consumption of the continent. Due to the need to reduce this consumption, European decision-making institutions have proposed aims (20-20-20 aims) to render building equipment more efficient. These aims are bound by law and oblige all member States to endeavour to reduce consumption and GEI emissions before the year 2020. Lightweight modular construction concepts and energy efficiency are not generally associated because this type of building is not normally meant for intensive use and does not have closures with insulation levels which fit the local regulations or building codes of each country. The objective of nZEB or NZEB and even Energy Plus, depending on each case, will necessarily be associated (as established in the guidelines) not only with the improvement of insulation levels in buildings, but also with the implementation of renewable systems of generation, independent of the type of building system used and of the building typology. Although it is true that the levels of industrialisation in the technological society today have reached several of the building process phases - particularly in the composite elements of buildings - it is also true that the quotas of development achieved in the area of construction have not reached the evolutionary levelfound in other fields of engineering, such as aeronautics or the automobile industry. Although there have been models and testimonial projects of lightweight industrialised building since the end of last century, even going back as far as the beginning of the XX century with examples of lightweight modular construction such as the Voisin House, industrialisation in the building industry has not been constant nor is its comercialisation comparable to massive and heavy construction. The terms industrialised building, prefabricated building, modular building and lightweight building, do not always refer to the same thing and they are not always synonymous. A building can be prefabricated yet not be modular or lightweight. To give an example, this is the case of building with prefabricated concrete panels. What is constant is that, in the case of lightweight modular construction, prefabrication and industrialisation are almost always implicit in many historical and contemporary examples. Energy efficiency (nZEB or even NZEB) is not normally linked to lightweight modular construction and/or industrialised lightweight; rather, it is united to the idea of massive closureswith high thermal inertia typical of design standards such as the Passive House; and although other concepts that subtract value from it are generally associated with lightweight building (short useful life, limited forms and function, inappropriate toany aesthetic pattern; limitation in comfort levels, etc.), the advances being achieved in technology for benefitting from energy and renewable systems of generation may well reverse these ideas and unify the criteria of efficiency + lightweight modular construction. Academic prototypes and projects - such as the Solar Decathlon competition organised by the US Department of Energy and celebrated since 2002, with its corresponding European events such as those held in 2010 and 2012, place a different slant on the idea of industrialised, modular and lightweight building within the context of energy efficiency, with prototypes of homes measuring approximately 60m2, proposed by university competitors, whose aim is to reach and/or develop the NZEB concept, or the zero energy building. This building option does not only signify durability, security and aesthetics, but also fast manufacture and assembly. It also has high energy benefits, as has been demonstrated in successive events of the Solar Decathlon. This type of initiative for the development of building technologies, does not only aim at energy efficiency, but also at the global concept of net energy, Energy Plus and zero CO2 emissions. The level of emissions in the manufacture and introduction of building materials in many cases depends not only on the inherent nature of the material, but also on the quantity of resources used to produce a specific unit of measurement (kg, m3, m2, ml, etc.). Thus in many cases itcould be validly arguedthat with less weight and smaller size, there will be fewer global emissions of greenhouse effect gases and less contamination. For the research carried out in this thesis prototypes such as the CML (3D Module) and CIL (panelled and elements) have been used as valid study references, becauseboth systems are comparablefor the purpose of analysing the energy benefits of closure materials. So as to reach a basic conclusion in this doctoral thesis - that sets out to demonstrate the technological/industrial viability of the combination of energy efficiency and lightweight modular construction - the departure point is the study of the state of the technique (from the selection of materials and the possible processes of industrialisation in manufacture, to their use on site, functioning and use, respecting the concepts of zero consumption, zero emissions of carbon and Energy Plus). Moreover, with the state of the technique identifying the current situation, tests and practices have been carried out with a natural scale prototype and test cells so as to verify the behaviour of the composite elements of these in certain climatic conditions. These types of result are contrasted with those obtained through computer simulation based on the same parameters and done, principally, using simplified methods of calculation, validated by institutions competent in energy efficiency in Spanish building and in line with the rules in force.
Resumo:
Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.