24 resultados para ASFALTOS MODIFICADOS
Resumo:
Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales de vídeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.
Resumo:
El análisis de opiniones es un área en la cual múltiples disciplinas han otorgado diferentes enfoques para elaborar modelos que sean capaces de extraer la polaridad de los textos analizados. En función del dominio o categoría del texto analizado, donde ejemplos de categorías son Deportes o Banca, estos modelos deben ser modificados para obtener un análisis de opinión de calidad. En esta tesis se presenta un modelo que pretende elaborar un análisis de opiniones independiente de la categoría a analizar y un extenso estado del arte sobre análisis de opiniones. Se propone un enfoque cuantitativo que haría uso de un léxico polarizado semilla como único recurso cualitativo del modelo. El enfoque propuesto hace uso de un corpus anotado de textos por polaridad y categoría y el léxico polarizado semilla para producir un modelo capaz de elaborar un análisis de opinión de calidad en las distintas categorías analizadas y expandir el léxico polarizado semilla con términos que se adecúan a las categorías procesadas.---ABSTRACT---Sentiment analysis is an area in which multiple disciplines have given diferent approaches to make models that are able to extract the polarity of the analyzed texts. Depending on the domain or category of the analyzed text, where examples of categories are Sports or Banking, these models should be modified to obtain a good opinion analysis. This thesis presents a model that aims to develop a category independent opinion analysis model and a extensive sentiment analysis state of the art. A quantitative approach is proposed that will use a polarized lexicon as the only qualitative resource. The proposed approach uses an annotated corpus by polarity and category and a polarized lexicon seed to produce a model able to develop a good opinion analysis in the various categories analyzed and to expand the polarized lexicon seed with terms that fit the processed categories.
Resumo:
El presente trabajo consistió en el desarrollo de una intervención nutricional a largo plazo llevada a cabo con jugadores profesionales de baloncesto, en función al cumplimiento de las recomendaciones nutricionales, con los siguientes dos objetivos: 1) valorar los cambios que dicha intervención produce sobre las prácticas nutricionales diarias de estos deportistas y 2) conocer la influencia de las modificaciones nutricionales producidas sobre la tasa de percepción del esfuerzo por sesión (RPE-Sesión) y la fatiga, a lo largo de una temporada competitiva, tanto para entrenamientos como partidos oficiales. Los objetivos del estudio se fundamentan en: 1) la numerosa evidencia científica que muestra la inadecuación de los hábitos nutricionales de los jugadores de baloncesto y otros deportistas respecto a las recomendaciones nutricionales; 2) el hecho ampliamente reconocido en la literatura especializada de que una ingesta nutricional óptima permite maximizar el rendimiento deportivo (a nivel físico y cognitivo), promoviendo una rápida recuperación y disminuyendo el riesgo de enfermedades y lesiones deportivas. No obstante, pocos estudios han llevado a cabo una intervención nutricional a largo plazo para mejorar los hábitos alimentarios de los deportistas y ninguno de ellos fue realizado con jugadores de baloncesto; 3) la elevada correlación entre la percepción del esfuerzo (RPE) y variables fisiológicas relacionadas al desarrollo de un ejercicio (por ej.: frecuencia cardíaca, consumo máximo de oxígeno o lactato sanguíneo) y los múltiples estudios que muestran la atenuación de la RPE durante la realización del ejercicio mediante una ingesta puntual de nutrientes, (especialmente de hidratos de carbono) aunque ninguno fue desarrollado en baloncesto; 4) el estudio incipiente de la relación entre la ingesta nutricional y la RPE-Sesión, siendo éste un método validado en baloncesto y otros deportes de equipo como indicador de la carga de trabajo interna, el rendimiento deportivo y la intensidad del ejercicio realizado; 5) el hecho de que la fatiga constituye uno de los principales factores influyentes en la percepción del esfuerzo y puede ser retrasada y/o atenuada mediante la ingesta de carbohidratos, pudiendo disminuir consecuentemente la RPE-Sesión y la carga interna del esfuerzo físico, potenciando el rendimiento deportivo y las adaptaciones inducidas por el entrenamiento; 6) la reducida evidencia acerca del comportamiento de la RPE-Sesión ante la modificación de la ingesta de nutrientes, encontrándose sólo un estudio llevado a cabo en baloncesto y 7) la ausencia de investigaciones acerca de la influencia que puede tener la mejora del patrón nutricional de los jugadores sobre la RPE-Sesión y la fatiga, desconociéndose si la adecuación de los hábitos nutricionales conduce a una disminución de estas variables en el largo plazo para todos los entrenamientos y partidos oficiales a nivel profesional. Por todo esto, este trabajo comienza con una introducción que presenta el marco teórico de la importancia y función de la nutrición en el deporte, así como de las recomendaciones nutricionales actuales a nivel general y para baloncesto. Además, se describen las intervenciones nutricionales llevadas a cabo previamente con otros deportistas y las consecuentes modificaciones sobre el patrón alimentario, coincidiendo este aspecto con el primer objetivo del presente estudio. Posteriormente, se analiza la RPE, la RPE-Sesión y la fatiga, focalizando el estudio en la relación de dichas variables con la carga de trabajo físico, la intensidad del entrenamiento, el rendimiento deportivo y la recuperación post ejercicio. Finalmente, se combinan todos los aspectos mencionados: ingesta nutricional, RPE percepción del esfuerzo y fatiga, con el fin de conocer la situación actual del estudio de la relación entre dichas variables, conformando la base del segundo objetivo de este estudio. Seguidamente, se exponen y fundamentan los objetivos antes mencionados, para dar lugar después a la explicación de la metodología utilizada en el presente estudio. Ésta consistió en un diseño de estudios de caso, aplicándose una intervención nutricional personalizada a tres jugadores de baloncesto profesional (cada jugador = un estudio de caso; n = 1), con el objetivo de adecuar su ingesta nutricional en el largo plazo a las recomendaciones nutricionales. A su vez, se analizó la respuesta individual de cada uno de los casos a dicha intervención para los dos objetivos del estudio. Para ello, cada jugador completó un registro diario de alimentos (7 días; pesada de alimentos) antes, durante y al final de la intervención. Además, los sujetos registraron diariamente a lo largo del estudio la RPE-Sesión y la fatiga en entrenamientos físicos y de balón y en partidos oficiales de liga, controlándose además en forma cuantitativa otras variables influyentes como el estado de ánimo y el sueño. El análisis de los datos consistió en el cálculo de los estadísticos descriptivos para todas las variables, la comparación de la ingesta en los diferentes momentos evaluados con las recomendaciones nutricionales y una comparación de medias no paramétrica entre el período pre intervención y durante la intervención con el test de Wilcoxon (medidas repetidas) para todas las variables. Finalmente, se relacionaron los cambios obtenidos en la ingesta nutricional con la percepción del esfuerzo y la fatiga y la posible influencia del estado de ánimo y el sueño, a través de un estudio correlacional (Tau_b de Kendall). Posteriormente, se presentan los resultados obtenidos y la discusión de los mismos, haciendo referencia a la evidencia científica relacionada que se encuentra publicada hasta el momento, la cual facilitó el análisis de la relación entre RPE-Sesión, fatiga y nutrición a lo largo de una temporada. Los principales hallazgos y su correspondiente análisis, por lo tanto, pueden resumirse en los siguientes: 1) los tres jugadores de baloncesto profesional presentaron inicialmente hábitos nutricionales inadecuados, haciendo evidente la necesidad de un nutricionista deportivo dentro del cuerpo técnico de los equipos profesionales; 2) las principales deficiencias correspondieron a un déficit pronunciado de energía e hidratos de carbono, que fueron reducidas con la intervención nutricional; 3) la ingesta excesiva de grasa total, ácidos grasos saturados, etanol y proteínas que se halló en alguno/s de los casos, también se adecuó a las recomendaciones después de la intervención; 4) la media obtenida durante un período de la temporada para la RPE-Sesión y la fatiga de entrenamientos, podría ser disminuida en un jugador individual mediante el incremento de su ingesta de carbohidratos a largo plazo, siempre que no existan alteraciones psico-emocionales relevantes; 5) el comportamiento de la RPE-Sesión de partidos oficiales no parece estar influido por los factores nutricionales modificados en este estudio, dependiendo más de la variación de elementos externos no controlables, intrínsecos a los partidos de baloncesto profesional. Ante estos resultados, se pudo observar que las diferentes características de los jugadores y las distintas respuestas obtenidas después de la intervención, reforzaron la importancia de utilizar un diseño de estudio de casos para el análisis de los deportistas de élite y, asimismo, de realizar un asesoramiento nutricional personalizado. Del mismo modo, la percepción del esfuerzo y la fatiga de cada jugador evolucionaron de manera diferente después de la intervención nutricional, lo cual podría depender de las diferentes características de los sujetos, a nivel físico, psico-social, emocional y contextual. Por ello, se propone que el control riguroso de las variables cualitativas que parecen influir sobre la RPE y la fatiga a largo plazo, facilitaría la comprensión de los datos y la determinación de factores desconocidos que influyen sobre estas variables. Finalmente, al ser la RPE-Sesión un indicador directo de la carga interna del entrenamiento, es decir, del estrés psico-fisiológico experimentado por el deportista, la posible atenuación de esta variable mediante la adecuación de los hábitos nutricionales, permitiría aplicar las cargas externas de entrenamiento planificadas, con menor estrés interno y mejor recuperación entre sesiones, disminuyendo también la sensación de fatiga, a pesar del avance de la temporada. ABSTRACT This study consisted in a long-term nutritional intervention carried out with professional basketball players according to nutritional recommendations, with the following two main objectives: 1) to evaluate the changes produced by the intervention on daily nutritional practices of these athletes and 2) to determine the influence of long term nutritional intake modifications on the rate of perceived exertion per session (Session-RPE) and fatigue, throughout a competitive season for training as well as competition games. These objectives are based on: 1) much scientific evidence that shows an inadequacy of the nutritional habits of basketball players and other athletes regarding nutritional recommendations; 2) the fact widely recognized in the scientific literature that an optimal nutrition allows to achieve the maximum performance of an athlete (both physically and cognitively), promoting fast recovery and decreasing risks of sports injuries and illnesses. However, only few studies carried out a long term nutritional intervention to improve nutritional practices of athletes and it could not be found any research with basketball players; 3) the high correlation between the rate of perceived exertion (RPE) and physiological variables related to the performance of physical exercise (e.g.: heart rate, maximum consumption of oxygen or blood lactate) and multiple studies showing the attenuation of RPE during exercise due to the intake of certain nutrients (especially carbohydrates), while none of them was developed in basketball; 4) correlation between nutritional intake and Session-RPE has been recently studied for the first time. Session-RPE method has been validated in basketball players and other team sports as an indicator of internal workload, sports performance and exercise intensity; 5) fatigue is considered one of the main influential factor on RPE and sport performance. It has also been observed that carbohydrates intake may delay or mitigate the onset of fatigue and, thus, decrease the perceived exertion and the internal training load, which could improve sports performance and training-induced adaptations; 6) there are few studies evaluating the influence of nutrient intake on Session-RPE and only one of them has been carried out with basketball players. Moreover, it has not been analyzed the possible effects of the adequacy of players’ nutritional habits through a nutritional intervention on Session-RPE and fatigue, variables that could be decreased for all training session and competition games because of an improvement of daily nutritional intake. Therefore, this work begins with an introduction that provides the conceptual framework of this research focused on the key role of nutrition in sport, as well as on the current nutritional recommendations for athletes and specifically for basketball players. In addition, previous nutritional interventions carried out with other athletes are described, as well as consequential modifications on their food pattern, coinciding with the first objective of the present study. Subsequently, RPE, Session-RPE and fatigue are analyzed, with focus on their correlation with physical workload, training intensity, sports performance and recovery. Finally, all the aforementioned aspects (nutritional intake, RPE and fatigue) were combined in order to know the current status of the relation between each other, this being the base for the second objective of this study. Subsequently, the objectives mentioned above are explained, continuing with the explanation of the methodology used in the study. The methodology consisted of a case-study design, carrying out a long term nutritional intervention with three professional basketball players (each player = one case study; n = 1), in order to adapt their nutritional intake to nutritional recommendations. At the same time, the individual response of each player to the intervention was analyzed for the two main objectives of the study. Each player completed a food diary (7 days; weighing food) in three moments: before, during and at the end of the intervention. In addition, the Session-RPE and fatigue were daily recorded throughout the study for all trainings (training with ball and resistance training) and competition games. At the same time, other potentially influential variables such as mood state and sleeping were daily controlled throughout the study. Data analysis consisted in descriptive statistics calculation for all the variables of the study, the comparison between nutritional intake (evaluated at different times) and nutritional recommendations and a non-parametric mean comparison between pre intervention and during intervention periods was made by Wilcoxon test (repeated measurements) for all variables too. Finally, the changes in nutritional intake, mood state and sleeping were correlated with the perceived exertion and fatigue through correctional study (Tau_b de Kendall). After the methodology, the study results and the associated discussion are presented. The discussion is based on the current scientific evidence that contributes to understand the relation between Session-RPE, fatigue and nutrition throughout the competitive season. The main findings and results analysis can be summarized as follows: 1) the three professional basketball players initially had inadequate nutritional habits and this clearly shows the need of a sports nutritionist in the coaching staff of professional teams; (2) the major deficiencies of the three players’ diet corresponded to a pronounced deficit of energy intake and carbohydrates consumption which were reduced with nutritional intervention; (3) the excessive intake of total fat, saturated fatty acids, ethanol and protein found in some cases were also adapted to the recommendations after the intervention; (4) Session-RPE mean and fatigue of a certain period of the competition season, could be decreased in an individual player by increasing his carbohydrates intake in the long term, if there are no relevant psycho-emotional disorders; (5) the behavior of the Session-RPE in competition games does not seem to be influenced by the nutritional factors modified in this study. They seem to depend much more on the variation of external non-controllable factors associated with the professional basketball games. Given these results, the different characteristics of each player and the diverse responses observed after the intervention in each individual for all the variables, reinforced the importance of the use of a case study design for research with elite athletes as well as personalized nutritional counselling. In the same way, the different responses obtained for RPE and fatigue in the long term for each player due to modification of nutritional habits, show that there is a dependence of such variables on the physical, psychosocial, emotional and contextual characteristics of each player. Therefore it is proposed that the rigorous control of the qualitative variables that seem to influence the RPE and fatigue in the long term, may facilitate the understanding of data and the determination of unknown factors that could influence these variables. Finally, because Session-RPE is a direct indicator of the internal load of training (psycho-physiological stress experienced by the athlete), the possible attenuation of Session-RPE through the improvement in nutritional habits, would allow to apply the planned external loads of training with less internal stress and better recovery between sessions, with a decrease in fatigue, despite of the advance of the season.
Resumo:
Tras los distintos análisis diseñados por Jorge Beltrán Luna en el proyecto "Aplicación de Inteligencia de Negocio a la Gestión Educativa" [Beltrán2014] sobre el comportamiento de los alumnos de la Universidad Politécnica de Madrid en las asignaturas cursadas por estos durante el curso 2013-2014, se llegó a la conclusión que se debía desarrollar una aplicación web mediante la cual pudiesen configurarse estos análisis con distintos parámetros para adecuarlos a los requerimientos del usuario. Este proyecto ha cumplido con el objetivo anteriormente mencionado. Se ha desarrollado una aplicación web capaz de mostrar por medio de un navegador web, las gráficas y tablas generadas por el programa de minería de datos. Mediante esta aplicación el usuario puede realizar diversas funciones. Una de ellas es la de solicitar mediante el formulario recibido en la interfaz principal de la aplicación, la visualización de los resultados generados por el sistema de acuerdo con los parámetros seleccionados por el diseñador de los análisis. El usuario conseguirá observar los resultados que obtendría si ejecutase directamente los análisis desarrollados en el proyecto de Jorge Beltrán Luna [Beltrán2014] en la herramienta Rapidminer. Otra de las funciones que podría realizar el usuario sería la de realizar estos mismos análisis pero modificando sus parámetros de configuración para adecuar dichos análisis a los resultados que se quiere obtener. El resultado será el que se habría conseguido en la aplicación Rapidminer si se cambiasen los mismos parámetros que los modificados en la página web de este prototipo. Por último, se ha diseñado un botón con el cual el usuario podrá recuperar el último análisis realizado, con el fin de que no sea necesario esperar el tiempo que tarde en realizarse el análisis para visualizar los resultados. También se ha realizado una explicación detallada de la aplicación de la inteligencia de negocio en el ámbito educacional. ABSTRACT. After different analysis designed by Jorge Beltran Luna in the "Aplicación de Inteligencia de Negocio a la Gestión Educativa" [Beltrán2014] project on the behaviour of the students at the Universidad Politécnica de Madrid during the course 2013-14, the tutor of this project concluded that it should be interesting to develop a web application through which teachers could view and configure these analysis with different parameters. This project has fulfilled the aforementioned objective. A web application has been develop to show through a web browser, the graphs and charts generated by the data mining tool. Using this application, the user can perform various features. One of this features is to request, employing the formulary received in the main interface, to display an analysis according to the chosen parameters. The user will see the results that would be observed in case that the analysis had been directly executed using the project designed by Jorge Beltrán Luna [Beltrán2014] in the RapidMiner tool. Another feature that the user could perform would be to make these analysis modifying its settings Similar result would be obtained in the RapidMiner tool in the case that identical modifications were carried out in the configuration parameters. Finally, a button to allow with recall the last analysis has been implemented. It is not necessary to wait for the execution of this analysis to see newly the results. A detailed explanation on the usage of business intelligence in the educational field has also been performed.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
El cambio climático y sus efectos requieren con urgencia el desarrollo de estrategias capaces no solo de mitigar pero también permitir la adaptación de los sistemas afectados por este fenómeno a los cambios que están provocando a nivel mundial. Olas de calor más largas y frecuentes, inundaciones, y graves sequías aumentan la vulnerabilidad de la población, especialmente en asentamientos urbanos. Este fenómeno y sus soluciones potenciales han sido ampliamente estudiados en las últimas décadas desde diferentes perspectivas y escalas que analizan desde el fenómeno regional de isla de calor al aumento de la intensidad energética necesaria en los edificios para mantener las condiciones de confort en los escenarios de calentamiento que se predicen. Su comprensión requiere el entendimiento de este fenómeno y un profundo análisis de las estrategias que pueden corregirlo y adaptarse a él. En la búsqueda de soluciones a este problema, las estrategias que incorporan sistemas naturales tales como las cubiertas ajardinadas, las fachadas vegetadas y bosques urbanos, se presentan como opciones de diseño capaces de proporcionan múltiples servicios al ecosistema urbano y de regular y hacer frente a los efectos del cambio climático. Entre los servicios que aportan estos sistemas naturales se incluyen la gestión de agua de tormentas, el control del efecto isla de calor, la mejora de la calidad del aire y del agua, el aumento de la diversidad, y como consecuencia de todo lo anterior, la reducción de la huella ecológica de las ciudades. En la última década, se han desarrollado múltiples estudios para evaluar y cuantificar los servicios al ecosistema proporcionados por las infraestructuras verdes, y específicamente las cubiertas ajardinadas, sin embargo, determinados servicios como la capacidad de la regulación del microclima urbano no ha sido apenas estudiados. La mayor parte de la literatura en este campo la componen estudios relacionados con la capacidad de las cubiertas ajardinadas de reducir el efecto de la isla de calor, en una escala local, o acerca de la reducción de la demanda energética de refrigeración debida a la instalación de cubiertas ajardinadas en la escala de edificio. La escala intermedia entre estos dos ámbitos, la calle, desde su ámbito habitable cercano al suelo hasta el límite superior del cañón urbano que configura, no han sido objeto detallado de estudio por lo que es esta escala el objeto de esta tesis doctoral. Esta investigación tiene como objeto contribuir en este campo y aportar un mayor entendimiento a través de la cuantificación del impacto de las cubiertas ajardinadas sobre la temperatura y humedad en el cañón urbano en la escala de calle y con un especial foco en el nivel peatonal. El primer paso de esta investigación ha sido la definición del objeto de estudio a través del análisis y revisión de trabajos tanto teóricos como empíricos que investigan los efectos de cubiertas ajardinadas en el entorno construido, entendidas como una herramienta para la adaptación y mitigación del impacto del cambio climático en las ciudades. La literatura analizada, revela el gran potencial de los sistemas vegetales como herramientas para el diseño pasivo puesto que no solo son capaces de mejorar las condiciones climáticas y microclimaticas en las ciudades reduciendo su demanda energética, sino también la necesidad de mayor análisis en la escala de calle donde confluyen el clima, las superficies urbanas y materiales y vegetación. Este análisis requiere una metodología donde se integren la respuesta térmica de edificios, las variaciones en los patrones de viento y radiación, y la interacción con la vegetación, por lo que un análisis cuantitativo puede ayudar a definir las estrategias más efectivas para lograr espacios urbanos más habitables. En este contexto, el objetivo principal de esta investigación ha sido la evaluación cuantitativa del impacto de la cubierta ajardinada en el microclima urbano a escala de barrio en condiciones de verano en los climas mediterráneos continentales. Para el logro de este objetivo, se ha seguido un proceso que persigue identificar los modelos y herramientas de cálculo capaces de capturar el efecto de la cubierta ajardinada sobre el microclima, identificar los parámetros que potencian o limitan este efecto, y cuantificar las variaciones que microclima creado en el cañón urbano produce en el consumo de energía de los edificios que rodean éste espacio. La hipótesis principal detrás de esta investigación y donde los objetivos anteriores se basan es el siguiente: "una cubierta ajardinada instalada en edificios de mediana altura favorece el establecimiento de microclimas a nivel peatonal y reduce las temperaturas en el entorno urbano donde se encuentra”. Con el fin de verificar la hipótesis anterior y alcanzar los objetivos propuestos se ha seguido la siguiente metodología: • definición del alcance y limitaciones del análisis • Selección de las herramientas y modelos de análisis • análisis teórico de los parámetros que afectan el efecto de las cubiertas ajardinadas • análisis experimental; • modelización energética • conclusiones y futuras líneas de trabajo Dada la complejidad de los fenómenos que intervienen en la generación de unas determinadas condiciones microclimáticas, se ha limitado el objeto de este estudio a las variables de temperatura y humedad, y sólo se han tenido en cuenta los componentes bióticos y abióticos del sistema, que incluyen la morfología, características superficiales del entorno estudiado, así como los elementos vegetales. Los componentes antrópicos no se han incluido en este análisis. La búsqueda de herramientas adecuadas para cumplir con los objetivos de este análisis ha concluido en la selección de ENVI-met v4 como el software más adecuado para esta investigación por su capacidad para representar los complejos fenómenos que caracterizan el microclima en cañones urbanos, en una escala temporal diaria y con unas escala local de vecindario. Esta herramienta supera el desafío que plantean los requisitos informáticos de un cálculo completo basado en elementos finitos realizados a través de herramientas de dinámica de fluidos computacional (CFD) que requieren una capacidad de cálculo computacional y tiempo privativos y en una escala dimensional y temporal limitada a esta capacidad computacional lo que no responde a los objetivos de esta investigación. ENVI-met 4 se basa es un modelo tridimensional del micro clima diseñado para simular las interacciones superficie-planta-aire en entornos urbanos. Basado en las ecuaciones fundamentales del equilibrio que representan, la conservación de masa, energía y momento. ENVI-met es un software predictivo, y como primer paso ha requerido la definición de las condiciones iniciales de contorno que se utilizan como punto de partida por el software para generar su propio perfil de temperatura y humedad diaria basada en la localización de la construcción, geometría, vegetación y las superficies de características físicas del entorno. La geometría de base utilizada para este primer análisis se ha basado en una estructura típica en cuanto al trazado urbano situada en Madrid que se ha simulado con una cubierta tradicional y una cubierta ajardinada en sus edificios. La estructura urbana seleccionada para este análisis comparativo es una red ortogonal con las calles principales orientadas este-oeste. El edificio típico que compone el vecindario se ha definido como “business as usual” (BAU) y se ha definido con una cubierta de baldosa de hormigón estándar, con un albedo 0.3, paredes con albedo 0.2 (construcción de muro de ladrillo típico) y cerramientos adiabáticos para evitar las posibles interferencias causadas por el intercambio térmico con el ambiente interior del edificio en los resultados del análisis. Para el caso de la cubierta ajardinada, se mantiene la misma geometría y características del edificio con excepción de la cobertura superficial de la azotea. Las baldosas de hormigón se han modificado con una cubierta ajardinada extensiva cubierta con plantas xerófilas, típicas en el clima de Madrid y caracterizado por su índice de densidad foliar, el “leaf area density” (LAD), que es la superficie total de superficie de hojas por unidad de volumen (m2/m3). El análisis se centra en los cañones urbanos entendidos como el espacio de calle comprendido entre los límites geométricos de la calle, verticales y horizontales, y el nivel superior de la cota urbana nivel de cubiertas. Los escenarios analizados se basan en la variación de la los principales parámetros que según la literatura analizada condicionan las variaciones microclimáticas en el ámbito urbano afectado por la vegetación, la velocidad del viento y el LAD de la azotea. Los resultados han sido registrados bajo condiciones de exposición solar diferentes. Las simulaciones fueron realizadas por los patrones de viento típico de verano, que para Madrid se caracterizan por vientos de componente suroeste que van desde 3 a 0 m/s. las simulaciones fueron realizadas para unas condiciones climáticas de referencia de 3, 2, 1 y 0 m/s a nivel superior del cañón urbano, como condición de contorno para el análisis. Los resultados calculados a 1,4 metros por encima del nivel del suelo, en el espacio habitado, mostraron que el efecto de la cubierta ajardinada era menor en condiciones de contorno con velocidades de viento más altas aunque en ningún caso el efecto de la cubierta verde sobre la temperatura del aire superó reducciones de temperatura de aire superiores a 1 º C. La humedad relativa no presentó variaciones significativas al comparar los diferentes escenarios. Las simulaciones realizadas para vientos con velocidad baja, entre 0 y 1 m/s mostraron que por debajo de 0.5 m/s la turbulencia del modelo aumentó drásticamente y se convirtió en el modelo inestable e incapaz de producir resultados fiables. Esto es debido al modelo de turbulencia en el software que no es válido para velocidades de viento bajas, lo que limita la capacidad de ENVI-met 4 para realizar simulaciones en estas condiciones de viento y es una de las principales conclusiones de este análisis en cuanto a la herramienta de simulación. También se comprobó el efecto de las densidades de la densidad de hoja (LAD) de los componentes vegetales en el modelo en la capa de aire inmediatamente superior a la cubierta, a 0,5 m sobre este nivel. Se compararon tres alternativas de densidad de hoja con la cubierta de baldosa de hormigón: el techo verde con LAD 0.3 (hierba típica o sedum), LAD 1.5 (plantas mixtas típicas) y LAD 2.5 (masa del árbol). Los resultados mostraron diferencias de temperatura muy relevante entre las diferentes alternativas de LAD analizadas. Los resultados muestran variaciones de temperatura que oscilan entre 3 y 5 º C al comparar el estándar de la azotea concreta con albedo 0, 3 con el techo con vegetación y vegetación densa, mostrando la importancia del LAD en la cuantificación de los efectos de las cubiertas vegetales en microclima circundante, lo que coincide con los datos reportados en la literatura existente y con los estudios empíricos analizados. Los resultados de los análisis teóricos han llegado a las siguientes conclusiones iniciales relacionadas con la herramienta de simulación y los resultados del modelo: En relación con la herramienta ENVI-met, se han observado limitaciones para el análisis. En primer lugar, la estructura rígida de la geometría, las bases de datos y el tamaño de la cuadrícula, limitan la escala y resolución de los análisis no permitiendo el desarrollo de grandes zonas urbanas. Por otro lado la estructura de ENVI-met permite el desarrollo de este tipo de simulación tan complejo dentro de tiempos razonables de cálculo y requerimientos computacionales convencionales. Otra limitación es el modelo de turbulencia del software, que no modela correctamente velocidades de viento bajas (entre 0 y 1 m/s), por debajo de 0,5 m/s el modelo da errores y no es estable, los resultados a estas velocidades no son fiables porque las turbulencias generadas por el modelo hacen imposible la extracción de patrones claros de viento y temperatura que permitan la comparación entre los escenarios de cubierta de hormigón y ajardinada. Además de las limitaciones anteriores, las bases de datos y parámetros de entrada en la versión pública del software están limitados y la complejidad de generar nuevos sistemas adaptándolos al edificio o modelo urbano que se quiera reproducir no es factible salvo en la versión profesional del software. Aparte de las limitaciones anteriores, los patrones de viento y perfiles de temperatura generados por ENVI-met concuerdan con análisis previos en los que se identificaban patrones de variación de viento y temperaturas en cañones urbanos con patrones de viento, relación de aspecto y dimensiones similares a los analizados en esta investigación. Por lo tanto, el software ha demostrado una buena capacidad para reproducir los patrones de viento en los cañones de la calle y capturar el efecto de enfriamiento producido por la cubierta verde en el cañón. En relación con el modelo, el resultado revela la influencia del viento, la radiación y el LAD en la temperatura del aire en cañones urbanos con relación de aspecto comprendida entre 0,5 y 1. Siendo el efecto de la cubierta verde más notable en cañones urbanos sombreados con relación de aspecto 1 y velocidades de viento en el nivel de “canopy” (por encima de la cubierta) de 1 m/s. En ningún caso las reducciones en la temperatura del aire excedieron 1 º C, y las variaciones en la humedad relativa no excedieron 1% entre los escenarios estudiados. Una vez que se han identificado los parámetros relevantes, que fueron principalmente la velocidad del viento y el LAD, se realizó un análisis experimental para comprobar los resultados obtenidos por el modelo. Para éste propósito se identificó una cubierta ajardinada de grandes dimensiones capaz de representar la escala urbana que es el objeto del estudio. El edificio usado para este fin fue el parking de la terminal 4 del aeropuerto internacional de Madrid. Aunque esto no es un área urbana estándar, la escala y la configuración del espacio alrededor del edificio fueron considerados aceptables para el análisis por su similitud con el contexto urbano objeto de estudio. El edificio tiene 800 x 200 m, y una altura 15 m. Está rodeado de vías de acceso pavimentadas con aceras conformando un cañón urbano limitado por el edificio del parking, la calle y el edificio de la terminal T4. El aparcamiento está cerrado con fachadas que configuran un espacio urbano de tipo cañón, con una relación de aspecto menor que 0,5. Esta geometría presenta patrones de viento y velocidad dentro del cañón que difieren ligeramente de los generados en el estudio teórico y se acercan más a los valores a nivel de canopo sobre la cubierta del edificio, pero que no han afectado a la tendencia general de los resultados obtenidos. El edificio cuenta con la cubierta ajardinada más grande en Europa, 12 Ha cubiertas por con una mezcla de hierbas y sedum y con un valor estimado de LAD de 1,5. Los edificios están rodeados por áreas plantadas en las aceras y árboles de sombra en las fachadas del edificio principal. El efecto de la cubierta ajardinada se evaluó mediante el control de temperaturas y humedad relativa en el cañón en un día típico de verano. La selección del día se hizo teniendo en cuenta las predicciones meteorológicas para que fuesen lo más semejantes a las condiciones óptimas para capturar el efecto de la cubierta vegetal sobre el microclima urbano identificadas en el modelo teórico. El 09 de julio de 2014 fue seleccionado para la campaña de medición porque las predicciones mostraban 1 m/s velocidad del viento y cielos despejados, condiciones muy similares a las condiciones climáticas bajo las que el efecto de la cubierta ajardinada era más notorio en el modelo teórico. Las mediciones se registraron cada hora entre las 9:00 y las 19:00 en 09 de julio de 2014. Temperatura, humedad relativa y velocidad del viento se registraron en 5 niveles diferentes, a 1.5, 4.5, 7.5, 11.5 y 16 m por encima del suelo y a 0,5 m de distancia de la fachada del edificio. Las mediciones fueron tomadas en tres escenarios diferentes, con exposición soleada, exposición la sombra y exposición influenciada por los árboles cercanos y suelo húmedo. Temperatura, humedad relativa y velocidad del viento se registraron con un equipo TESTO 410-2 con una resolución de 0,1 ºC para temperatura, 0,1 m/s en la velocidad del viento y el 0,1% de humedad relativa. Se registraron las temperaturas de la superficie de los edificios circundantes para evaluar su efecto sobre los registros usando una cámara infrarroja FLIR E4, con resolución de temperatura 0,15ºC. Distancia mínima a la superficie de 0,5 m y rango de las mediciones de Tª de - 20 º C y 250 º C. Los perfiles de temperatura extraídos de la medición in situ mostraron la influencia de la exposición solar en las variaciones de temperatura a lo largo del día, así como la influencia del calor irradiado por las superficies que habían sido expuestas a la radiación solar así como la influencia de las áreas de jardín alrededor del edificio. Después de que las medidas fueran tomadas, se llevaron a cabo las siguientes simulaciones para evaluar el impacto de la cubierta ajardinada en el microclima: a. estándar de la azotea: edificio T4 asumiendo un techo de tejas de hormigón con albedo 0.3. b. b. cubierta vegetal : T4 edificio asumiendo una extensa cubierta verde con valor bajo del LAD (0.5)-techo de sedum simple. c. c. cubierta vegetal: T4 edificio asumiendo una extensa cubierta verde con alta joven valor 1.5-mezcla de plantas d. d. cubierta ajardinada más vegetación nivel calle: el edificio T4 con LAD 1.5, incluyendo los árboles existentes a nivel de calle. Este escenario representa las condiciones actuales del edificio medido. El viento de referencia a nivel de cubierta se fijó en 1 m/s, coincidente con el registro de velocidad de viento en ese nivel durante la campaña de medición. Esta velocidad del viento se mantuvo constante durante toda la campaña. Bajo las condiciones anteriores, los resultados de los modelos muestran un efecto moderado de azoteas verdes en el microclima circundante que van desde 1 º a 2 º C, pero una contribución mayor cuando se combina con vegetación a nivel peatonal. En este caso las reducciones de temperatura alcanzan hasta 4 ºC. La humedad relativa sin embargo, no presenta apenas variación entre los escenarios con y sin cubierta ajardinada. Las temperaturas medidas in situ se compararon con resultados del modelo, mostrando una gran similitud en los perfiles definidos en ambos casos. Esto demuestra la buena capacidad de ENVI-met para reproducir el efecto de la cubierta ajardinada sobre el microclima y por tanto para el fin de esta investigación. Las diferencias más grandes se registraron en las áreas cercanas a las zonas superiores de las fachadas que estaban más expuestas a la radiación del sol y también el nivel del suelo, por la influencia de los pavimentos. Estas diferencias se pudieron causar por las características de los cerramientos en el modelo que estaban limitados por los datos disponibles en la base de datos de software, y que se diferencian con los del edificio real. Una observación importante derivada de este estudio es la contribución del suelo húmedo en el efecto de la cubierta ajardinada en la temperatura del aire. En el escenario de la cubierta ajardinada con los arboles existentes a pie de calle, el efecto del suelo húmedo contribuye a aumentar las reducciones de temperatura hasta 4.5ºC, potenciando el efecto combinado de la cubierta ajardinada y la vegetación a pie de calle. Se realizó un análisis final después de extraer el perfil horario de temperaturas en el cañón urbano influenciado por el efecto de las cubiertas ajardinadas y los árboles. Con esos perfiles modificados de temperatura y humedad se desarrolló un modelo energético en el edificio asumiendo un edificio cerrado y climatizado, con uso de oficinas, una temperatura de consigna de acuerdo al RITE de 26 ºC, y con los sistemas por defecto que establece el software para el cálculo de la demanda energética y que responden a ASHRAE 90.1. El software seleccionado para la simulación fue Design Builder, por su capacidad para generar simulaciones horarias y por ser una de las herramientas de simulación energética más reconocidas en el mercado. Los perfiles modificados de temperatura y humedad se insertaron en el año climático tipo y se condujo la simulación horaria para el día definido, el 9 de Julio. Para la simulación se dejaron por defecto los valores de conductancia térmica de los cerramientos y la eficiencia de los equipos de acuerdo a los valores que fija el estándar ASHRAE para la zona climática de Madrid, que es la 4. El resultado mostraba reducciones en el consumo de un día pico de hasta un 14% de reducción en las horas punta. La principal conclusión de éste estudio es la confirmación del potencial de las cubiertas ajardinadas como una estrategia para reducir la temperatura del aire y consumo de energía en los edificios, aunque este efecto puede ser limitado por la influencia de los vientos, la radiación y la especie seleccionada para el ajardinamiento, en especial de su LAD. Así mismo, en combinación con los bosques urbanos su efecto se potencia e incluso más si hay pavimentos húmedos o suelos porosos incluidos en la morfología del cañón urbano, convirtiéndose en una estrategia potencial para adaptar los ecosistemas urbanos el efecto aumento de temperatura derivado del cambio climático. En cuanto a la herramienta, ENVI-met se considera una buena opción para éste tipo de análisis dada su capacidad para reproducir de un modo muy cercano a la realidad el efecto de las cubiertas. Aparte de ser una herramienta validada en estudios anteriores, en el caso experimental se ha comprobado por medio de la comparación de las mediciones con los resultados del modelo. A su vez, los resultados y patrones de vientos generados en los cañones urbanos coinciden con otros estudios similares, concluyendo por tanto que es un software adecuado para el objeto de esta tesis doctoral. Como líneas de investigación futura, sería necesario entender el efecto de la cubierta ajardinada en el microclima urbano en diferentes zonas climáticas, así como un mayor estudio de otras variables que no se han observado en este análisis, como la temperatura media radiante y los indicadores de confort. Así mismo, la evaluación de otros parámetros que afectan el microclima urbano tales como variables geométricas y propiedades superficiales debería ser analizada en profundidad para tener un resultado que cubra todas las variables que afectan el microclima en el cañón urbano. ABSTRACT Climate Change is posing an urgency in the development of strategies able not only to mitigate but also adapt to the effects that this global problem is evidencing around the world. Heat waves, flooding and severe draughts increase the vulnerability of population, and this is especially critical in urban settlements. This has been extensively studied over the past decades, addressed from different perspectives and ranging from the regional heat island analysis to the building scale. Its understanding requires physical and dimensional analysis of this broad phenomenon and a deep analysis of the factors and the strategies which can offset it. In the search of solutions to this problem, green infrastructure elements such as green roofs, walls and urban forests arise as strategies able provide multiple regulating ecosystem services to the urban environment able to cope with climate change effects. This includes storm water management, heat island effect control, and improvement of air and water quality. Over the last decade, multiple studies have been developed to evaluate and quantify the ecosystem services provided by green roofs, however, specific regulating services addressing urban microclimate and their impact on the urban dwellers have not been widely quantified. This research tries to contribute to fill this gap and analyzes the effects of green roofs and urban forests on urban microclimate at pedestrian level, quantifying its potential for regulating ambient temperature in hot season in Mediterranean –continental climates. The study is divided into a sequence of analysis where the critical factors affecting the performance of the green roof system on the microclimate are identified and the effects of the green roof is tested in a real case study. The first step has been the definition of the object of study, through the analysis and review of theoretical and empirical papers that investigate the effects of covers landscaped in the built environment, in the context of its use as a tool for adaptation and mitigation of the impact of climate change on cities and urban development. This literature review, reveals the great potential of the plant systems as a tool for passive design capable of improving the climatic and microclimatic conditions in the cities, as well as its positive impact on the energy performance of buildings, but also the need for further analysis at the street scale where climate, urban surfaces and materials, and vegetation converge. This analysis requires a methodology where the thermal buildings response, the variations in the patterns of wind and the interaction of the vegetation are integrated, so a quantitative analysis can help to define the most effective strategies to achieve liveable urban spaces and collaterally, , the improvement of the surrounding buildings energy performance. In this specific scale research is needed and should be customized to every climate, urban condition and nature based strategy. In this context, the main objective for this research was the quantitative assessment of the Green roof impact on the urban microclimate at a neighbourhood scale in summer conditions in Mediterranean- continental climates. For the achievement of this main objective, the following secondary objectives have been set: • Identify the numerical models and calculation tools able to capture the effect of the roof garden on the microclimate. • Identify the enhancing or limiting parameter affecting this effect. • Quantification of the impact of the microclimate created on the energy consumption of buildings surrounding the street canyon analysed. The main hypothesis behind this research and where the above objectives are funded on is as follows: "An extensive roof installed in medium height buildings favours the establishment of microclimates at the pedestrian level and reduces the temperatures in the urban environment where they are located." For the purpose of verifying the above hypothesis and achieving the proposed objectives the following methodology has been followed: - Definition of hypothesis and objectives - Definition of the scope and limitations - Theoretical analysis of parameters affecting gren roof performance - Experimental analysis; - Energy modelling analyisis - Conclusions and future lines of work The search for suitable tools and models for meeting the objectives of this analysis has led to ENVI-met v4 as the most suitable software for this research. ENVI met is a three-dimensional micro-climate model designed to simulate the surface-plant-air interactions in urban environments. Based in the fundamental equations representing, mass, energy and momentum conservation, the software has the capacity of representing the complex phenomena characterizing the microclimate in urban canyons, overcoming the challenge posed by the computing requirements of a full calculus based on finite elements done via traditional computational fluid dynamics tools. Once the analysis tool has been defined, a first set of analysis has been developed to identify the main parameters affecting the green roof influence on the microclimate. In this analysis, two different scenarios are compared. A neighborhood with standard concrete tile roof and the same configuration substituting the concrete tile by an extensive green roof. Once the scenarios have been modeled, different iterations have been run to identify the influence of different wind patterns, solar exposure and roof vegetation type on the microclimate, since those are the most relevant variables affecting urban microclimates. These analysis have been run to check the conditions under which the effects of green roofs get significance. Since ENVI-met V4 is a predictive software, the first step has been the definition of the initial weather conditions which are then used as starting point by the software, which generates its own daily temperature and humidity profile based on the location of the building, geometry, vegetation and the surfaces physical characteristics. The base geometry used for this first analysis has been based on a typical urban layout structure located in Madrid, an orthogonal net with the main streets oriented East-West to ease the analysis of solar radiation in the different points of the model. This layout represents a typical urban neighborhood, with street canyons keeping an aspect ratio between 0.5 and 1 and high sky view factor to ensure correct sun access to the streets and buildings and work with typical wind flow patterns. Finally, the roof vegetation has been defined in terms of foliage density known as Leaf Area Density (LAD) and defined as the total one-sided leaf area per unit of layer volume. This index is the most relevant vegetation characteristic for the purpose of calculating the effect of vegetation on wind and solar radiation as well as the energy consumed during its metabolic processes. The building as usual (BAU) configuring the urban layout has been defined with standard concrete tile roofs, considering 0.3 albedo. Walls have been set with albedo 0.2 (typical brick wall construction) and adiabatic to avoid interference caused by thermal interchanges with the building indoor environment. For the proposed case, the same geometry and building characteristics have been kept. The only change is the roof surface coverage. The gravel on the roof has been changed with an extensive green roof covered with drought tolerant plants, typical in Madrid climate, and characterized by their LAD. The different scenarios analysed are based in the variation of the wind speed and the LAD of the roof. The results have been recorded under different sun exposure conditions. Simulations were run for the typical summer wind patterns, that for Madrid are characterized by South-west winds ranging from 3 to 0 m/s. Simulations were run for 3, 2, 1 and 0 m/s at urban canopy level. Results taken at 1.4 m above the ground showed that the green roof effect was lower with higher wind speeds and in any case the effect of the green roof on the air temperatures exceeded air temperature reductions higher than 1ºC. Relative humidity presented no variations when comparing the different scenarios. For the analysis at 0m/s, ENVI-met generated error and no results were obtained. Different simulations showed that under 0.5 m/s turbulence increased dramatically and the model became unstable and unable to produce reliable results. This is due to the turbulence model embedded in the software which is not valid for low wind speeds (below 1 m/s). The effect of the different foliage densities was also tested in the model. Three different alternatives were compared against the concrete roof: green roof with LAD 0.3 ( typical grass or sedum), 1.5 (typical mixed plants) and 2.5 (tree mass). The results showed very relevant temperature differences between the different LAD alternatives analyzed. Results show temperature variations ranging between 3 and 5 ºC when comparing the standard concrete roof with albedo 0, 3 with the vegetated roof and vegetated mass, showing the relevance of the LAD on the effects of green roofs on microclimate. This matches the data reported in existing literature and empirical studies and confirms the relevance of the LAD in the roof effect on the surrounding microclimate. The results of the theoretical analysis have reached the following initial conclusions related to both, the simulation tool and the model results: • In relation to the tool ENVI-met, some limitations for the analysis have been observed. In first place, the rigid structure of the geometry, the data bases and the grid size, limit the scale and resolution of the analysis not allowing the development of large urban areas. On the other hand the ENVI-met structure enables the development of this type of complex simulation within reasonable times and computational requirements for the purpose of this analysis. Additionally, the model is unable to run simulations at wind speeds lower than 0.5 m/s, and even at this speed, the results are not reliable because the turbulences generated by the model that made impossible to extract clear temperature differences between the concrete and green roof scenarios. Besides the above limitations, the wind patterns and temperature profiles generated by ENVImet are in agreement with previous analysis identifying wind patterns in urban canyons with similar characteristics and aspect ratio. Therefore the software has shown a good capacity for reproducing the wind effects in the street canyons and seems to capture the cooling effect produced by the green roof. • In relation to the model, the results reveals the influence of wind, radiation and LAD on air temperature in urban canyons with aspect ratio comprised between 0.5 and 1. Being the effect of the green roof more noticeable in shaded urban canyons with aspect ratio 1 and wind speeds of 1 m/s. In no case the reductions in air temperature exceeded 1ºC. Once the relevant parameters have been identified, mainly wind speed and LAD, an experimental analysis was conducted to test the results obtained by the model. For this purpose a large green roof was identified, able to represent the urban scale which is the object of the studio. The building identified for this purpose was the terminal 4, parking building of the international Madrid Airport. Even though this is not a standard urban area, the scale and configuration of the space around the building were deemed as acceptable for the analysis. The building is an 800x200 m, 15 m height parking building, surrounded by access paved paths and the terminal building. The parking is enclosed with facades that configure an urban canyon-like space, although the aspect ratio is lower than 0.5 and the wind patterns might differ from the theoretical model run. The building features the largest green roof in Europe, a 12 Ha extensive green roof populated with a mix of herbs and sedum with a LAD of 1.5. The buildings are surrounded by planted areas at the sidewalk and trees shading the main building facades. Green roof performance was evaluated by monitoring temperatures and relative humidity in the canyon in a typical summer day. The day selection was done taking into account meteorological predictions so the weather conditions on the measurement day were as close as possible as the optimal conditions identified in terms of green roof effects on the urban canyon. July 9th 2014 was selected for the measurement campaign because the predictions showed 1 m/s wind speed and sunny sky, which were very similar to the weather conditions where the effect of the green roof was most noticeable in the theory model. Measurements were registered hourly from 9:00am to 19:00 on July 9th 2014. Temperature, relative humidity and wind speed were recorded at 5 different levels, at 1.5, 4.5, 7.5, 11.5 and 16 m above ground and at 0.5 m distance from the building façade. Measurements were taken in three different scenarios, sunny exposure, shaded exposure, and shaded exposure influenced by nearby trees and moist soil. Temperature, relative humidity and wind speed were registered using a TESTO 410-2 anemometer, with 0.1ºC resolution for temperature, 0.1 m/s resolution for wind speed and 0.1 % for relative humidity. Surface temperatures were registered using an infrared camera FLIR E4, with temperature resolution 0.15ºC. Minimal distance to surface of 0.5 m and Tª measurements range from -20ºC and 250ºC. The temperature profiles measured on the site showed the influence of solar exposure on the temperature variations along the day, as well as the influence of the heat irradiated by the building surfaces which had been exposed to the sun radiation and those influenced by the moist soft areas around the building. After the measurements were taken, the following simulations were conducted to evaluate the impact of the green roof on the microclimate: a. Standard roof: T4 building assuming a concrete tile roof with albedo 0.3. b. Green roof: T4 building assuming an extensive green roof with low LAD value (0.5)-Simple Sedum roof. c. Green roof: T4 building assuming an extensive green roof with high LAD value 1.5- Lucerne and grasses d. Green roof plus street level vegetation: T4 Building, LAD 1.5 (Lucerne), including the existing trees at street level. This scenario represents the current conditions of the building. The urban canopy wind was set as 1 m/s, the wind speed register at that level during the measurement campaign. This wind speed remained constant over the whole campaign. Under the above conditions, the results of the models show a moderate effect of green roofs on the surrounding microclimate ranging from 1ºC to 2ºC, but a larger contribution when combining it with vegetation at pedestrian level, where 4ºC temperature reductions are reached. Relative humidity remained constant. Measured temperatures and relative humidity were compared to model results, showing a close match in the profiles defined in both cases and the good capacity of ENVI met to capture the impact of the green roof in this analysis. The largest differences were registered in the areas close to the top areas of the facades which were more exposed to sun radiation and also near to the soil level. These differences might be caused by differences between the materials properties included in the model (which were limited by the data available in the software database) and those in the real building. An important observation derived from this study is the contribution of moist soil to the green roof effect on air temperatures. In the green roof scenario with surrounding trees, the effect of the moist soil contributes to raise the temperature reductions at 4.5ºC. A final analysis was conducted after extracting the hourly temperature profile in the street canyon influenced by the effect of green roofs and trees. An energy model was run on the building assuming it was a conventional enclosed building. Energy demand reductions were registered in the building reaching up to 14% reductions at the peak hour. The main conclusion of this study is the potential of the green roofs as a strategy for reducing air temperatures and energy consumption in the buildings, although this effect can be limited by the influence of high speed winds. This effect can be enhanced its combination with urban forests and even more if soft moist pavements are included in the urban canyon morphology, becoming a potential strategy for adapting urban ecosystems to the increasing temperature effect derived from climate change.
Resumo:
En este proyecto se abordan el diseño y análisis, con sus diferentes etapas, de varias configuraciones de prototipos para luminarias LED enfocadas al ámbito domestico e industrial. Se realizarán montajes sobre diferentes materiales para evaluar los resultados y decidir que soporte es más adecuado para cada circunstancia. Inicialmente expondremos el estado actual de esta tecnología y caracterizaremos, de forma preliminar, los dispositivos que vamos a utilizar para elaborar los prototipos que posteriormente analizaremos. Seguidamente detallaremos el proceso de construcción de cada prototipo, indicando especialmente las diferencias y similitudes entre ellos que, en siguientes secciones, serán analizadas. Trabajaremos con dos rangos de potencia para las luminarias. El primero de ellos se centra en obtener la máxima potencia lumínica, con valores comprendidos entre 40W y 50W, considerando un uso industrial, alumbrado público, etc. El segundo rango de potencias, se enfocará al ámbito doméstico, adecuando la temperatura de color a este entorno, para combinar la potencia, de entre 9W y 12W, con una iluminación más cálida. Finalmente someteremos los prototipos elaborados a una serie de análisis y, ante los resultados, concluiremos cuales serán aptos para el uso al que se pretenden dedicar y aquellos que deberán ser modificados. En el entorno de laboratorio, donde se llevaran a cabo análisis térmicos, eléctricos y lumínicos, emplearemos instrumental especializado para cada tipo de análisis así como su software correspondiente. A excepción de las mediciones relacionadas con el espectro de radiación lumínica, el resto serán obtenidas mediante la plataforma LabVIEW®, un completo software grafico para el desarrollo de instrumentación virtual. Como sección final, expondremos una evaluación sobre el cumplimiento de los objetivos establecidos para el proyecto, posibles mejoras o trabajos futuros y conclusiones obtenidas. ABSTRACT. This project concerns the design and analysis, with its different stages, of various configurations of LED luminaries prototypes focused on domestic and industrial environments. Mounts on different materials will be made to evaluate the results and decide which material is most appropriate for each circumstance. Initially we will expose the current state of this technology and characterize, in a preliminary way, the devices that we will use to produce the prototypes which subsequently will analyze. Later we detail the process of construction of each prototype, especially indicating the differences and similarities between them. In the following sections, we will analyze these characteristics. We will work with two power ranges for luminaries. The first one focuses on maximum light output, with values between 40W and 50W, thinking about industrial use, street lighting, etc. The second power range will focus on the domestic environment, adjusting the color temperature in this environment to combine power, between 9W and 12W, with warm lighting. Finally the prototypes will submit a series of analyzes and, with the results obtained, we conclude if will be suitable for the intended use and those that should be modified. In laboratory environment, where thermal, electrical and lighting analyzes were carried out, we will use specialized instruments for each type of analysis as well as the corresponding software. Except for measurements related to the spectrum of light radiation, the rest of information will be obtained by LabVIEW®, complete graphical development software for virtual instrumentation. As a final section, we will present an evaluation of compliance with the project objectives, possible future work, or improvements, and conclusions.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
El propósito de este proyecto es el desarrollo de un sistema de aprovisionamiento electrónico para gestionar los pedidos de las tiendas al almacén mediante mensajería SOAP. El sistema consiste en dos aplicaciones Web, la primera instalada en el almacén y otra instalada en las tiendas asociadas a dicho almacén. Ambas aplicaciones se desarrollarán en Java y JSP utilizando el Framework Spring e Hibernate para la persistencia en base de datos. La mensajería entre las aplicaciones se realizará con mensajes SOAP enviados a servicios Web publicados en ambas aplicaciones. En la primera parte del trabajo se realizará una explicación del Framework de Spring e Hibernate focalizando sobre todo en los módulos utilizados en el trabajo. También se realizará una explicación acerca de la mensajería SOAP y los servicios Web. En la segunda parte se realizarán las dos aplicaciones del sistema. La aplicación de gestión de la tienda permitirá a los usuarios realizar pedidos al almacén, recibir las mercancías y consultar el histórico de pedidos realizados. Además tendrá publicados dos servicios web para recibir las expediciones de los pedidos y los productos nuevos o modificados en el almacén. La aplicación de gestión del almacén permitirá a los usuarios crear / modificar productos, expedir los pedidos recibidos de las tiendas y consultar el histórico de pedidos recibidos. Además tendrá publicados dos servicios web para recibir los pedidos y las recepciones de mercancías desde las tiendas. En esta aplicación también se implementará una tarea programada que se ejecutará cada tres minutos y que sincronizará con las tiendas los productos nuevos o modificados en el almacén mediante mensajes SOAP. SUMMARY The aim of this project is the development of an e-procurement system to manage orders from shops to the storehouse using SOAP messaging. The system consists of two Web applications, the first one is installed in the storehouse and the other is installed in the shops associated to that storehouse. Both applications will be developed in Java and JSP using the Spring Framework and Hibernate for database persistence. The messaging between applications is performed with SOAP messages sent to Web services published in both applications. In the first part of the project an explanation of the Spring Framework and Hibernate will be performed, especially focusing on modules used in the project. An explanation about SOAP messaging and Web services will be carried out too. In the second part of the project the two system applications will be performed. The store management application will allow the users to make purchase orders to the storehouse, receive items and consult the order history carried out. In addition it will have two Web Services published in order to receive the shipping orders and the new or modified products in the storehouse. The management application of the storehouse will allow the users to create and modify products, send the orders received from stores and consult the orders history received. Besides, it will have two Web Services published to receive the orders and receipts from stores. A scheduled task run every three minutes will also be performed in this application. It will synchronize the new or modified products with stores using SOAP messaging.