68 resultados para Energy Efficient Routing Protocols
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this article is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this paper we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.
Resumo:
La estructura económica mundial, con centros de producción y consumo descentralizados y el consiguiente aumento en el tráfico de mercancías en todo el mundo, crea considerables problemas y desafíos para el sector del transporte de mercancías. Esta situación ha llevado al transporte marítimo a convertirse en el modo más económico y más adecuado para el transporte de mercancías a nivel global. De este modo, los puertos marítimos se configuran como nodos de importancia capital en la cadena de suministro al servir como enlace entre dos sistemas de transporte, el marítimo y el terrestre. El aumento de la actividad en los puertos marítimos produce tres efectos indeseables: el aumento de la congestión vial, la falta de espacio abierto en las instalaciones portuarias y un impacto ambiental significativo en los puertos marítimos. Los puertos secos nacen para favorecer la utilización de cada modo de transporte en los segmentos en que resultan más competitivos y para mitigar estos problemas moviendo parte de la actividad en el interior. Además, gracias a la implantación de puertos secos es posible discretizar cada uno de los eslabones de la cadena de transporte, permitiendo que los modos más contaminantes y con menor capacidad de transporte tengan itinerarios lo más cortos posible, o bien, sean utilizados únicamente para el transporte de mercancías de alto valor añadido. Así, los puertos secos se presentan como una oportunidad para fortalecer las soluciones intermodales como parte de una cadena integrada de transporte sostenible, potenciando el transporte de mercancías por ferrocarril. Sin embargo, su potencial no es aprovechado al no existir una metodología de planificación de la ubicación de uso sencillo y resultados claros para la toma de decisiones a partir de los criterios ingenieriles definidos por los técnicos. La decisión de dónde ubicar un puerto seco exige un análisis exhaustivo de toda la cadena logística, con el objetivo de transferir el mayor volumen de tráfico posible a los modos más eficientes desde el punto de vista energético, que son menos perjudiciales para el medio ambiente. Sin embargo, esta decisión también debe garantizar la sostenibilidad de la propia localización. Esta Tesis Doctoral, pretende sentar las bases teóricas para el desarrollo de una herramienta de Herramienta de Ayuda a la Toma de Decisiones que permita establecer la localización más adecuada para la construcción de puertos secos. Este primer paso es el desarrollo de una metodología de evaluación de la sostenibilidad y la calidad de las localizaciones de los puertos secos actuales mediante el uso de las siguientes técnicas: Metodología DELPHI, Redes Bayesianas, Análisis Multicriterio y Sistemas de Información Geográfica. Reconociendo que la determinación de la ubicación más adecuada para situar diversos tipos de instalaciones es un importante problema geográfico, con significativas repercusiones medioambientales, sociales, económicos, locacionales y de accesibilidad territorial, se considera un conjunto de 40 variables (agrupadas en 17 factores y estos, a su vez, en 4 criterios) que permiten evaluar la sostenibilidad de las localizaciones. El Análisis Multicriterio se utiliza como forma de establecer una puntuación a través de un algoritmo de scoring. Este algoritmo se alimenta a través de: 1) unas calificaciones para cada variable extraídas de información geográfica analizada con ArcGIS (Criteria Assessment Score); 2) los pesos de los factores obtenidos a través de un cuestionario DELPHI, una técnica caracterizada por su capacidad para alcanzar consensos en un grupo de expertos de muy diferentes especialidades: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía; y 3) los pesos de las variables, para lo que se emplean las Redes Bayesianas lo que supone una importante aportación metodológica al tratarse de una novedosa aplicación de esta técnica. Los pesos se obtienen aprovechando la capacidad de clasificación de las Redes Bayesianas, en concreto de una red diseñada con un algoritmo de tipo greedy denominado K2 que permite priorizar cada variable en función de las relaciones que se establecen en el conjunto de variables. La principal ventaja del empleo de esta técnica es la reducción de la arbitrariedad en la fijación de los pesos de la cual suelen adolecer las técnicas de Análisis Multicriterio. Como caso de estudio, se evalúa la sostenibilidad de los 10 puertos secos existentes en España. Los resultados del cuestionario DELPHI revelan una mayor importancia a la hora de buscar la localización de un Puerto Seco en los aspectos tenidos en cuenta en las teorías clásicas de localización industrial, principalmente económicos y de accesibilidad. Sin embargo, no deben perderse de vista el resto de factores, cuestión que se pone de manifiesto a través del cuestionario, dado que ninguno de los factores tiene un peso tan pequeño como para ser despreciado. Por el contrario, los resultados de la aplicación de Redes Bayesianas, muestran una mayor importancia de las variables medioambientales, por lo que la sostenibilidad de las localizaciones exige un gran respeto por el medio natural y el medio urbano en que se encuadra. Por último, la aplicación práctica refleja que la localización de los puertos secos existentes en España en la actualidad presenta una calidad modesta, que parece responder más a decisiones políticas que a criterios técnicos. Por ello, deben emprenderse políticas encaminadas a generar un modelo logístico colaborativo-competitivo en el que se evalúen los diferentes factores tenidos en cuenta en esta investigación. The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this dissertation is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this research we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.
Resumo:
Wireless sensor networks (WSNs) may be deployed in failure-prone environments, and WSNs nodes easily fail due to unreliable wireless connections, malicious attacks and resource-constrained features. Nevertheless, if WSNs can tolerate at most losing k − 1 nodes while the rest of nodes remain connected, the network is called k − connected. k is one of the most important indicators for WSNs’ self-healing capability. Following a WSN design flow, this paper surveys resilience issues from the topology control and multi-path routing point of view. This paper provides a discussion on transmission and failure models, which have an important impact on research results. Afterwards, this paper reviews theoretical results and representative topology control approaches to guarantee WSNs to be k − connected at three different network deployment stages: pre-deployment, post-deployment and re-deployment. Multi-path routing protocols are discussed, and many NP-complete or NP-hard problems regarding topology control are identified. The challenging open issues are discussed at the end. This paper can serve as a guideline to design resilient WSNs.
Resumo:
La edificación residencial existente en España y en Europa se encuentra abocada a una rehabilitación profunda para cumplir los objetivos marcados en la estrategia europea para el año 2050. Estos, para el sector de la edificación, se proponen una reducción del 90% de emisiones de gases de efecto invernadero (GEI) respecto a niveles del año 1990. Este plan a largo plazo establece hitos intermedios de control, con objetivos parciales para el año 2020 y 2030. El objetivo último es aprovechar el potencial de reducción de demanda energética del sector de la edificación, del cual la edificación residencial supone el 85% en España. Dentro de estos requerimientos, de reducción de demanda energética en la edificación, la ventilación en la edificación residencial se convierte en uno de los retos a resolver por su vinculación directa a la salud y el confort de los ocupantes de la misma, y al mismo tiempo su relación proporcional con la demanda energética que presenta el edificio asociada al acondicionamiento térmico. Gran parte de las pérdidas térmicas de la edificación residencial se producen por el aire de renovación y la infiltración de aire a través de la envolvente. La directiva europea de eficiencia energética de la edificación (EPBD), que establece las directrices necesarias para alcanzar los objetivos de este sector en cuanto a emisiones de CO2 y gases de efecto invernadero (GEI), contempla la ventilación con aire limpio como un requisito fundamental a tener en cuenta de cara a las nuevas construcciones y a la rehabilitación energética de los edificios existentes. El síndrome del edificio enfermo, un conjunto de molestias y síntomas asociados a la baja calidad del aire de edificios no residenciales que surgió a raíz de la crisis del petróleo de 1973, tuvo su origen en una ventilación deficiente y una renovación del aire interior insuficiente de estos edificios, producto del intento de ahorro en la factura energética. Teniendo en cuenta que, de media, pasamos un 58% de nuestro tiempo en las viviendas, es fundamental cuidar la calidad del aire interior y no empeorarla aplicando medidas de “eficiencia energética” con efectos no esperados. Para conseguir esto es fundamental conocer en profundidad cómo se produce la ventilación en la edificación en bloque en España en sus aspectos de calidad del aire interior y demanda energética asociada a la ventilación. El objetivo de esta tesis es establecer una metodología de caracterización y de optimización de las necesidades de ventilación para los espacios residenciales existentes en España que aúne el doble objetivo de garantizar la calidad ambiental y reducir la demanda energética de los mismos. La caracterización del parque edificatorio residencial español en cuanto a ventilación es concluyente: La vivienda en España se distribuye principalmente en tres periodos en los que se encuentran más del 80% del total de las viviendas construidas. El periodo anterior a las normas básicas de la edificación (NBE), de 1960 a 1980, el periodo desde 1980 al año 2005, con el mayor número total de viviendas construidas, guiado por la NTE ISV 75, y el periodo correspondiente a la edificación construida a partir del Código Técnico de la Edificación, en 2006, cuyo documento básico de condiciones de salubridad (DB HS3) es la primera norma de obligado cumplimiento en diseño y dimensionamiento de ventilación residencial en España. La selección de un modelo de bloque de viviendas de referencia, un valor medio y representativo, seleccionado de entre estos periodos, pero con cualidades que se extienden más allá de uno de ellos, nos permite realizar un intensivo análisis comparativo de las condiciones de calidad de aire interior y la demanda energética del mismo, aplicando las distintas configuraciones que presenta la ventilación en viviendas dependiendo del escenario o época constructiva (o normativa) en que esta fuera construida. Este análisis se lleva a cabo apoyándose en un doble enfoque: el modelado numérico de simulaciones y el análisis de datos experimentales, para comprobar y afinar los modelos y observar la situación real de las viviendas en estos dos aspectos. Gracias a las conclusiones del análisis previo, se define una estrategia de optimización de la ventilación basada fundamentalmente en dos medidas: 1) La introducción de un sistema de extracción mecánica y recuperación de calor que permita reducir la demanda energética debida a la renovación del aire y a la vez diluir los contaminantes interiores más eficazmente para mejorar, de esta forma, la calidad del ambiente interior. 2) La racionalización del horario de utilización de estos sistemas, no malgastando la energía en periodos de no ocupación, permitiendo una leve ventilación de fondo, debida a la infiltración, que no incida en pérdidas energéticas cuantiosas. A esta optimización, además de aplicar la metodología de análisis previo, en cuanto a demanda energética y calidad del aire, se aplica una valoración económica integradora y comparativa basada en el reglamento delegado EU244/2012 de coste óptimo (Cost Optimal Methodology). Los resultados principales de esta tesis son: • Un diagnóstico de la calidad del aire interior de la edificación residencial en España y su demanda energética asociada, imprescindible para lograr una rehabilitación energética profunda garantizando la calidad del aire interior. • Un indicador de la relación directa entre calidad de aire y demanda energética, para evaluar la adecuación de los sistemas de ventilación, respecto de las nuevas normativas de eficiencia energética y ventilación. • Una estrategia de optimización, que ofrece una alternativa de intervención, y la aplicación de un método de valoración que permite evaluar la amortización comparada de la instalación de los sistemas. ABSTRACT The housing building stock already built in Spain and Europe faces a deep renovation in the present and near future to accomplish with the objectives agreed in the European strategy for 2050. These objectives, for the building sector, are set in a 90% of Green House Gases (GHG) reduction compared to levels in 1990. This long‐term plan has set milestones to control the correct advance of achievement in 2020 and 2030. The main objective is to take advantage of the great potential to reduce energy demand from the building sector, in which housing represents 85% share in Spain. Among this reduction on building energy demand requirements, ventilation of dwellings becomes one of the challenges to solve as it’s directly connected to the indoor air quality (IAQ) and comfort conditions for the users, as well as proportional to the building energy demand on thermal conditioning. A big share of thermal losses in housing is caused by air renovation and infiltration through the envelope leaks. The European Directive on Building energy performance (EPBD), establishes the roots needed to reach the building sector objectives in terms of CO2 and GHG emissions. This directive sets the ventilation and renovation with clean air of the new and existing buildings as a fundamental requirement. The Sick Building Syndrome (SBS), an aggregation of symptoms and annoys associated to low air quality in non residential buildings, appeared as common after the 1973 oil crisis. It is originated in defective ventilation systems and deficient air renovation rates, as a consequence of trying to lower the energy bill. Accounting that we spend 58% of our time in dwellings, it becomes crucial to look after the indoor air quality and focus in not worsening it by applying “energy efficient” measures, with not expected side effects. To do so, it is primary to research in deep how the ventilation takes place in the housing blocks in Spain, in the aspects related to IAQ and ventilation energy demand. This thesis main objective is to establish a characterization and optimization methodology regarding the ventilation needs for existing housing in Spain, considering the twofold objective of guaranteeing the air quality as reducing the energy demand. The characterization of the existing housing building stock in Spain regarding ventilation is conclusive. More of 80% of the housing stock is distributed in 3 main periods: before the implementation of the firsts regulations on building comfort conditions (Normas Básicas de la Edificación), from 1960 to 1980; the period after the first recommendations on ventilation (NTE ISV 75) for housing were set, around 1980 until 2005 and; the period corresponding to the housing built after the existing mandatory regulation in terms of indoor sanity conditions and ventilation (Spanish Building Code, DB HS3) was set, in 2006. Selecting a representative blueprint of a housing block in Spain, which has medium characteristics not just within the 3 periods mention, but which qualities extent beyond the 3 of them, allows the next step, analyzing. This comparative and intense analyzing phase is focused on the air indoor conditions and the related energy demand, applying different configurations to the ventilation systems according to the different constructive or regulation period in which the building is built. This analysis is also twofold: 1) Numerical modeling with computer simulations and 2) experimental data collection from existing housing in real conditions to check and refine the models to be tested. Thanks to the analyzing phase conclusions, an optimization strategy on the ventilation of the housing stock is set, based on two actions to take: 1) To introduce a mechanical exhaust and intake ventilation system with heat recovery that allows reducing energy demand, as improves the capacity of the system to dilute the pollutant load. This way, the environmental quality is improved. 2) To optimize the schedule of the system use, avoids waste of energy in no occupancy periods, relying ventilation during this time in a light infiltration ventilation, intended not to become large and not causing extra energy losses. Apart from applying the previous analyzing methodology to the optimization strategy, regarding energy demand and air quality, a ROI valorization is performed, based on the cost optimal methodology (delegated regulation EU244/2012). The main results from the thesis are: • To obtain a through diagnose regarding air quality and energy demand for the existing housing stock in Spain, unavoidable to reach a energy deep retrofitting scheme with no air quality worsening. • To obtain a marker to relate air quality and energy demand and evaluate adequateness of ventilation systems, for the new regulations to come. • To establish an optimization strategy to improve both air quality and energy demand, applying a compared valorization methodology to obtain the Return On Investment (ROI).
Resumo:
This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.
Resumo:
The intermediate band (IB) solar cell (Fig. 1) has been proposed [1] to increase photovoltaic efficiency by a factor above 1.5, based on the absorption of two sub-bandgap photons to promote an electron across the bandgap. To realize this principle, that can be applied also to obtain efficient photocatalysis with sunlight, we proposed in recent years several materials where a metal or heavy element, substituting for an electropositive atom in a known semiconductor that has an appropriate band gap width (around 2 eV), forms inside the gap the partially filled levels needed for this aim
Resumo:
Transport is responsible for 41% of CO2 emissions in Spain, and around 65% of that figure is due to road traffic. Tolled motorways are currently managed according to economic criteria: minimizing operational costs and maximizing revenues from tolls. Within this framework, this paper develops a new methodology for managing motorways based on a target of maximum energy efficiency. It includes technological and demand-driven policies, which are applied to two case studies. Various conclusions emerge from this study. One is, that the use of intelligent payment systems is recommended; and another, is that the most sustainable policy would involve defining the most efficient strategy for each motorway section, including the maximum use of its capacity, the toll level which attracts the most vehicles, and the optimum speed limit for each type of vehicle.
Resumo:
El mercado ibérico de futuros de energía eléctrica gestionado por OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, con sede en Lisboa), también conocido como el mercado ibérico de derivados de energía, comenzó a funcionar el 3 de julio de 2006. Se analiza la eficiencia de este mercado organizado, por lo que se estudia la precisión con la que sus precios de futuros predicen el precio de contado. En dicho mercado coexisten dos modos de negociación: el mercado continuo (modo por defecto) y la contratación mediante subasta. En la negociación en continuo, las órdenes anónimas de compra y de venta interactúan de manera inmediata e individual con órdenes contrarias, dando lugar a operaciones con un número indeterminado de precios para cada contrato. En la negociación a través de subasta, un precio único de equilibrio maximiza el volumen negociado, liquidándose todas las operaciones a ese precio. Adicionalmente, los miembros negociadores de OMIP pueden liquidar operaciones “Over-The-Counter” (OTC) a través de la cámara de compensación de OMIP (OMIClear). Las cinco mayores empresas españolas de distribución de energía eléctrica tenían la obligación de comprar electricidad hasta julio de 2009 en subastas en OMIP, para cubrir parte de sus suministros regulados. De igual manera, el suministrador de último recurso portugués mantuvo tal obligación hasta julio de 2010. Los precios de equilibrio de esas subastas no han resultado óptimos a efectos retributivos de tales suministros regulados dado que dichos precios tienden a situarse ligeramente sesgados al alza. La prima de riesgo ex-post, definida como la diferencia entre los precios a plazo y de contado en el periodo de entrega, se emplea para medir su eficiencia de precio. El mercado de contado, gestionado por OMIE (“Operador de Mercado Ibérico de la Energía”, conocido tradicionalmente como “OMEL”), tiene su sede en Madrid. Durante los dos primeros años del mercado de futuros, la prima de riesgo media tiende a resultar positiva, al igual que en otros mercados europeos de energía eléctrica y gas natural. En ese periodo, la prima de riesgo ex-post tiende a ser negativa en los mercados de petróleo y carbón. Los mercados de energía tienden a mostrar niveles limitados de eficiencia de mercado. La eficiencia de precio del mercado de futuros aumenta con el desarrollo de otros mecanismos coexistentes dentro del mercado ibérico de electricidad (conocido como “MIBEL”) –es decir, el mercado dominante OTC, las subastas de centrales virtuales de generación conocidas en España como Emisiones Primarias de Energía, y las subastas para cubrir parte de los suministros de último recurso conocidas en España como subastas CESUR– y con una mayor integración de los mercados regionales europeos de energía eléctrica. Se construye un modelo de regresión para analizar la evolución de los volúmenes negociados en el mercado continuo durante sus cuatro primeros años como una función de doce indicadores potenciales de liquidez. Los únicos indicadores significativos son los volúmenes negociados en las subastas obligatorias gestionadas por OMIP, los volúmenes negociados en el mercado OTC y los volúmenes OTC compensados por OMIClear. El número de creadores de mercado, la incorporación de agentes financieros y compañías de generación pertenecientes a grupos integrados con suministradores de último recurso, y los volúmenes OTC compensados por OMIClear muestran una fuerte correlación con los volúmenes negociados en el mercado continuo. La liquidez de OMIP está aún lejos de los niveles alcanzados por los mercados europeos más maduros (localizados en los países nórdicos (Nasdaq OMX Commodities) y Alemania (EEX)). El operador de mercado y su cámara de compensación podrían desarrollar acciones eficientes de marketing para atraer nuevos agentes activos en el mercado de contado (p.ej. industrias consumidoras intensivas de energía, suministradores, pequeños productores, compañías energéticas internacionales y empresas de energías renovables) y agentes financieros, captar volúmenes del opaco OTC, y mejorar el funcionamiento de los productos existentes aún no líquidos. Resultaría de gran utilidad para tales acciones un diálogo activo con todos los agentes (participantes en el mercado, operador de mercado de contado, y autoridades supervisoras). Durante sus primeros cinco años y medio, el mercado continuo presenta un crecimento de liquidez estable. Se mide el desempeño de sus funciones de cobertura mediante la ratio de posición neta obtenida al dividir la posición abierta final de un contrato de derivados mensual entre su volumen acumulado en la cámara de compensación. Los futuros carga base muestran la ratio más baja debido a su buena liquidez. Los futuros carga punta muestran una mayor ratio al producirse su menor liquidez a través de contadas subastas fijadas por regulación portuguesa. Las permutas carga base liquidadas en la cámara de compensación ubicada en Madrid –MEFF Power, activa desde el 21 de marzo de 2011– muestran inicialmente valores altos debido a bajos volúmenes registrados, dado que esta cámara se emplea principalmente para vencimientos pequeños (diario y semanal). Dicha ratio puede ser una poderosa herramienta de supervisión para los reguladores energéticos cuando accedan a todas las transacciones de derivados en virtud del Reglamento Europeo sobre Integridad y Transparencia de los Mercados de Energía (“REMIT”), en vigor desde el 28 de diciembre de 2011. La prima de riesgo ex-post tiende a ser positiva en todos los mecanismos (futuros en OMIP, mercado OTC y subastas CESUR) y disminuye debido a la curvas de aprendizaje y al efecto, desde el año 2011, del precio fijo para la retribución de la generación con carbón autóctono. Se realiza una comparativa con los costes a plazo de generación con gas natural (diferencial “clean spark spread”) obtenido como la diferencia entre el precio del futuro eléctrico y el coste a plazo de generación con ciclo combinado internalizando los costes de emisión de CO2. Los futuros eléctricos tienen una elevada correlación con los precios de gas europeos. Los diferenciales de contratos con vencimiento inmediato tienden a ser positivos. Los mayores diferenciales se dan para los contratos mensuales, seguidos de los trimestrales y anuales. Los generadores eléctricos con gas pueden maximizar beneficios con contratos de menor vencimiento. Los informes de monitorización por el operador de mercado que proporcionan transparencia post-operacional, el acceso a datos OTC por el regulador energético, y la valoración del riesgo regulatorio pueden contribuir a ganancias de eficiencia. Estas recomendaciones son también válidas para un potencial mercado ibérico de futuros de gas, una vez que el hub ibérico de gas –actualmente en fase de diseño, con reuniones mensuales de los agentes desde enero de 2013 en el grupo de trabajo liderado por el regulador energético español– esté operativo. El hub ibérico de gas proporcionará transparencia al atraer más agentes y mejorar la competencia, incrementando su eficiencia, dado que en el mercado OTC actual no se revela precio alguno de gas. ABSTRACT The Iberian Power Futures Market, managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, located in Lisbon), also known as the Iberian Energy Derivatives Market, started operations on 3 July 2006. The market efficiency, regarding how well the future price predicts the spot price, is analysed for this energy derivatives exchange. There are two trading modes coexisting within OMIP: the continuous market (default mode) and the call auction. In the continuous trading, anonymous buy and sell orders interact immediately and individually with opposite side orders, generating trades with an undetermined number of prices for each contract. In the call auction trading, a single price auction maximizes the traded volume, being all trades settled at the same price (equilibrium price). Additionally, OMIP trading members may settle Over-the-Counter (OTC) trades through OMIP clearing house (OMIClear). The five largest Spanish distribution companies have been obliged to purchase in auctions managed by OMIP until July 2009, in order to partly cover their portfolios of end users’ regulated supplies. Likewise, the Portuguese last resort supplier kept that obligation until July 2010. The auction equilibrium prices are not optimal for remuneration purposes of regulated supplies as such prices seem to be slightly upward biased. The ex-post forward risk premium, defined as the difference between the forward and spot prices in the delivery period, is used to measure its price efficiency. The spot market, managed by OMIE (Market Operator of the Iberian Energy Market, Spanish Pool, known traditionally as “OMEL”), is located in Madrid. During the first two years of the futures market, the average forward risk premium tends to be positive, as it occurs with other European power and natural gas markets. In that period, the ex-post forward risk premium tends to be negative in oil and coal markets. Energy markets tend to show limited levels of market efficiency. The price efficiency of the Iberian Power Futures Market improves with the market development of all the coexistent forward contracting mechanisms within the Iberian Electricity Market (known as “MIBEL”) – namely, the dominant OTC market, the Virtual Power Plant Auctions known in Spain as Energy Primary Emissions, and the auctions catering for part of the last resort supplies known in Spain as CESUR auctions – and with further integration of European Regional Electricity Markets. A regression model tracking the evolution of the traded volumes in the continuous market during its first four years is built as a function of twelve potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the OTC market, and the OTC cleared volumes by OMIClear. The amount of market makers, the enrolment of financial members and generation companies belonging to the integrated group of last resort suppliers, and the OTC cleared volume by OMIClear show strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (located in the Nordic countries (Nasdaq OMX Commodities) and Germany (EEX)). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (e.g. energy intensive industries, suppliers, small producers, international energy companies and renewable generation companies) and financial agents as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions. During its firs five and a half years, the continuous market shows steady liquidity growth. The hedging performance is measured through a net position ratio obtained from the final open interest of a month derivatives contract divided by its accumulated cleared volume. The base load futures in the Iberian energy derivatives exchange show the lowest ratios due to good liquidity. The peak futures show bigger ratios as their reduced liquidity is produced by auctions fixed by Portuguese regulation. The base load swaps settled in the clearing house located in Spain – MEFF Power, operating since 21 March 2011, with a new denomination (BME Clearing) since 9 September 2013 – show initially large values due to low registered volumes, as this clearing house is mainly used for short maturity (daily and weekly swaps). The net position ratio can be a powerful oversight tool for energy regulators when accessing to all the derivatives transactions as envisaged by European regulation on Energy Market Integrity and Transparency (“REMIT”), in force since 28 December 2011. The ex-post forward risk premium tends to be positive in all existing mechanisms (OMIP futures, OTC market and CESUR auctions) and diminishes due to the learning curve and the effect – since year 2011 – of the fixed price retributing the indigenous coal fired generation. Comparison with the forward generation costs from natural gas (“clean spark spread”) – obtained as the difference between the power futures price and the forward generation cost with a gas fired combined cycle plant taking into account the CO2 emission rates – is also performed. The power futures are strongly correlated with European gas prices. The clean spark spreads built with prompt contracts tend to be positive. The biggest clean spark spreads are for the month contract, followed by the quarter contract and then by the year contract. Therefore, gas fired generation companies can maximize profits trading with contracts of shorter maturity. Market monitoring reports by the market operator providing post-trade transparency, OTC data access by the energy regulator, and assessment of the regulatory risk can contribute to efficiency gains. The same recommendations are also valid for a potential Iberian gas futures market, once an Iberian gas hub – currently in a design phase, with monthly meetings amongst the stakeholders in a Working Group led by the Spanish energy regulatory authority since January 2013 – is operating. The Iberian gas hub would bring transparency attracting more shippers and improving competition and thus its efficiency, as no gas price is currently disclosed in the existing OTC market.
Resumo:
Background Energy Policy is one of the main drivers of Transport Policy. A number of strategies to reduce current energy consumption trends in the transport sector have been designed over the last decades. They include fuel taxes, more efficient technologies and changing travel behavior through demand regulation. But energy market has a high degree of uncertainty and the effectiveness of those policy options should be assessed. Methods A scenario based assessment methodology has been developed in the frame of the EU project STEPS. It provides an integrated view of Energy efficiency, environment, social and competitiveness impacts of the different strategies. It has been applied at European level and to five specific Regions. Concluding remarks The results are quite site specific dependent. However they show that regulation measures appear to be more effective than new technology investments. Higher energy prices could produce on their turn a deterioration of competitiveness and a threat for social goals.
Resumo:
La capacidad de comunicación de los seres humanos ha crecido gracias a la evolución de dispositivos móviles cada vez más pequeños, manejables, potentes, de mayor autonomía y más asequibles. Esta tendencia muestra que en un futuro próximo cercano cada persona llevaría consigo por lo menos un dispositivo de altas prestaciones. Estos dispositivos tienen incorporados algunas formas de comunicación: red de telefonía, redes inalámbricas, bluetooth, entre otras. Lo que les permite también ser empleados para la configuración de redes móviles Ad Hoc. Las redes móviles Ad Hoc, son redes temporales y autoconfigurables, no necesitan un punto de acceso para que los nodos intercambien información entre sí. Cada nodo realiza las tareas de encaminador cuando sea requerido. Los nodos se pueden mover, cambiando de ubicación a discreción. La autonomía de estos dispositivos depende de las estrategias de como sus recursos son utilizados. De tal forma que los protocolos, algoritmos o modelos deben ser diseñados de forma eficiente para no impactar el rendimiento del dispositivo, siempre buscando un equilibrio entre sobrecarga y usabilidad. Es importante definir una gestión adecuada de estas redes especialmente cuando estén siendo utilizados en escenarios críticos como los de emergencias, desastres naturales, conflictos bélicos. La presente tesis doctoral muestra una solución eficiente para la gestión de redes móviles Ad Hoc. La solución contempla dos componentes principales: la definición de un modelo de gestión para redes móviles de alta disponibilidad y la creación de un protocolo de enrutamiento jerárquico asociado al modelo. El modelo de gestión propuesto, denominado High Availability Management Ad Hoc Network (HAMAN), es definido en una estructura de cuatro niveles, acceso, distribución, inteligencia e infraestructura. Además se describen los componentes de cada nivel: tipos de nodos, protocolos y funcionamiento. Se estudian también las interfaces de comunicación entre cada componente y la relación de estas con los niveles definidos. Como parte del modelo se diseña el protocolo de enrutamiento Ad Hoc, denominado Backup Cluster Head Protocol (BCHP), que utiliza como estrategia de encaminamiento el empleo de cluster y jerarquías. Cada cluster tiene un Jefe de Cluster que concentra la información de enrutamiento y de gestión y la envía al destino cuando esta fuera de su área de cobertura. Para mejorar la disponibilidad de la red el protocolo utiliza un Jefe de Cluster de Respaldo el que asume las funciones del nodo principal del cluster cuando este tiene un problema. El modelo HAMAN es validado a través de un proceso la simulación del protocolo BCHP. El protocolo BCHP se implementa en la herramienta Network Simulator 2 (NS2) para ser simulado, comparado y contrastado con el protocolo de enrutamiento jerárquico Cluster Based Routing Protocol (CBRP) y con el protocolo de enrutamiento Ad Hoc reactivo denominado Ad Hoc On Demand Distance Vector Routing (AODV). Abstract The communication skills of humans has grown thanks to the evolution of mobile devices become smaller, manageable, powerful, more autonomy and more affordable. This trend shows that in the near future each person will carry at least one high-performance device. These high-performance devices have some forms of communication incorporated: telephony network, wireless networks, bluetooth, among others. What can also be used for configuring mobile Ad Hoc networks. Ad Hoc mobile networks, are temporary and self-configuring networks, do not need an access point for exchange information between their nodes. Each node performs the router tasks as required. The nodes can move, change location at will. The autonomy of these devices depends on the strategies of how its resources are used. So that the protocols, algorithms or models should be designed to efficiently without impacting device performance seeking a balance between overhead and usability. It is important to define appropriate management of these networks, especially when being used in critical scenarios such as emergencies, natural disasters, wars. The present research shows an efficient solution for managing mobile ad hoc networks. The solution comprises two main components: the definition of a management model for highly available mobile networks and the creation of a hierarchical routing protocol associated with the model. The proposed management model, called High Availability Management Ad Hoc Network (HAMAN) is defined in a four-level structure: access, distribution, intelligence and infrastructure. The components of each level: types of nodes, protocols, structure of a node are shown and detailed. It also explores the communication interfaces between each component and the relationship of these with the levels defined. The Ad Hoc routing protocol proposed, called Backup Cluster Head Protocol( BCHP), use of cluster and hierarchies like strategies. Each cluster has a cluster head which concentrates the routing information and management and sent to the destination when out of cluster coverage area. To improve the availability of the network protocol uses a Backup Cluster Head who assumes the functions of the node of the cluster when it has a problem. The HAMAN model is validated accross the simulation of their BCHP routing protocol. BCHP protocol has been implemented in the simulation tool Network Simulator 2 (NS2) to be simulated, compared and contrasted with a hierarchical routing protocol Cluster Based Routing Protocol (CBRP) and a routing protocol called Reactive Ad Hoc On Demand Distance Vector Routing (AODV).
Resumo:
Predictions about electric energy needs, based on current electric energy models, forecast that the global energy consumption on Earth for 2050 will double present rates. Using distributed procedures for control and integration, the expected needs can be halved. Therefore implementation of Smart Grids is necessary. Interaction between final consumers and utilities is a key factor of future Smart Grids. This interaction is aimed to reach efficient and responsible energy consumption. Energy Residential Gateways (ERG) are new in-building devices that will govern the communication between user and utility and will control electric loads. Utilities will offer new services empowering residential customers to lower their electric bill. Some of these services are Smart Metering, Demand Response and Dynamic Pricing. This paper presents a practical development of an ERG for residential buildings.
Resumo:
During recent years, wind energy has moved from an emerging technology to a nearly competitive technology. This fact, coupled with an increasing global focus on environmental concern and a political desire of a certain level of diversification in the energy supply, ensures wind energy an important role in the future electricity market. For this challenge to be met in a cost-efficient way, a substantial part of new wind turbine installations is foreseen to be erected in big onshore or offshore wind farms. This fact makes the production, loading and reliability of turbines operating under such conditions of particular interest.
Resumo:
The intermediate band solar cell [1] has been proposed as a concept able to substantially enhance the efficiency limit of an ordinary single junction solar cell. If a band permitted for electrons is inserted within the forbidden band of a semiconductor then a novel path for photo generation is open: electron hole pairs may be formed by the successive absorption of two sub band gap photons using the intermediate band (IB) as a stepping stone. While the increase of the photovoltaic (PV) current is not a big achievement —it suffices to reduce the band gap— the achievement of this extra current at high voltage is the key of the IB concept. In ordinary cells the voltage is limited by the band gap so that reducing it would also reduce the band gap. In the intermediate band solar cell the high voltage is produced when the IB is permitted to have a Quasi Fermi Level (QFL) different from those of the Conduction Band (CB) and the Valence Band (VB). For it the cell must be properly isolated from the external contacts, which is achieved by putting the IB material between two n- and p-type ordinary semiconductors [2]. Efficiency thermodynamic limit of 63% is obtained for the IB solar cell1 vs. the 40% obtained [3] for ordinary single junction solar cells. Detailed information about the IB solar cells can be found elsewhere [4].
Resumo:
The improvement of energy efficiency in existing buildings is always a challenge due to their particular, and sometimes protected, constructive solutions. New constructive regulations in Spain leave a big undefined gap when a restoration is considered because they were developed for new buildings. However, rehabilitation is considered as an opportunity for many properties because it allows owners to obtain benefits from the use of the buildings. The current financial and housing crisis has turned society point of view to existing buildings and making them more efficient is one of the Spanish government’s aims. The economic viability of a rehabilitation action should take all factors into account: both construction costs and the future operative costs of the building must be considered. Nevertheless, the application of these regulations in Spain is left to the designer’s opinion and always under a subjective point of view. With the research work described in this paper and with the help of some case-studies, the cost of adapting an existing building to the new constructive regulations will be studied and Energetic Efficiency will be evaluated depending on how the investment is recovered. The interest of the research is based on showing how new constructive solutions can achieve higher levels of efficiency in terms of energy, construction and economy and it will demonstrate that Life Cycle Costing analysis can be a mechanism to find the advantages and disadvantages of using these new constructive solutions. Therefore, this paper has the following objectives: analysing constructive solutions in existing buildings - to establish a process for assessing total life cycle costs (LCC) during the planning stages with consideration of future operating costs - to select the most advantageous operating system – To determine the return on investment in terms of construction costs based on new techniques, the achieved energy savings and investment payback periods.