994 resultados para CAL KYR BP


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La envolvente de la edificación es la responsable de equilibrar el intercambio energético entre el interior y el exterior, por lo tanto cualquier actuación encaminada a la reducción del consumo energético ha de establecer, como uno de sus objetivos prioritarios, la mejora del comportamiento de la misma. Las edificaciones anteriores a 1940 constituyen la mayor parte de las existentes en áreas rurales y centros urbanos. En ellas, la repercusión de la fachada sobre las transmitancias globales pone de manifiesto la necesidad de intervención. Sin embargo, su elevada inercia térmica y los importantes saltos térmicos característicos de gran parte de España plantean la importancia de que aquélla se efectúe por el exterior. A tal respecto, la falta de disponibilidad de espesor suficiente para implantar sistemas tipo SATE deriva en que, frecuentemente, la única solución viable sea la de aislar por el interior perdiendo con ello la capacidad de acumulación térmica del muro y con el asociado riesgo de condensaciones. La amplia tradición en el empleo de revestimientos, especialmente en base de cal, permiten que éstos sean utilizados no sólo como elemento estético o de protección de la obra de fábrica antigua sino también para la mejora del comportamiento térmico del soporte, si se aprovecha el mecanismo de transmisión térmica por radiación. Éste es el objetivo de la presente Tesis Doctoral en la que se estudia la modificación de las propiedades radiantes de los morteros de revestimiento para la mejora de la eficiencia energética de las construcciones históricas, principalmente las constituidas por muros monolíticos, aunque podría ser de aplicación a otro tipo de construcciones compuestas por diversas capas. Como punto de partida, se estudió y revisó la documentación disponible sobre las investigaciones de las tres áreas científico-tecnológicas que convergen en la Tesis Doctoral: rehabilitación, material y comportamiento térmico, a partir de lo cual se comprobó la inexistencia de estudios similares al objeto de la presente Tesis Doctoral. Complementariamente, se analizaron los revestimientos en lo concerniente a los materiales que los constituyen, la composición de las mezclas y características de cada una de las capas así como al enfoque que, desde el punto de vista térmico, se estimaba más adecuado para la obtención de los objetivos propuestos. Basándonos en dichos análisis, se preseleccionaron ochenta materiales que fueron ensayados en términos de reflectancia y emisividad para elegir cuatro con los que se continuó la investigación. Éstos, junto con la cal elegida para la investigación y el árido marmóreo característico de la última capa de revestimiento, fueron caracterizados térmicamente, de forma pormenorizada, así como química y físicamente. Los fundamentos teóricos y los estudios preliminares desarrollados con distintos materiales, en estado fresco y endurecido, fueron empleados en la dosificación de componentes de las mezclas, en dos proporciones distintas, para el estudio del efecto del agregado. Éstas se ensayaron en estado fresco, para comprobar su adecuación de puesta en obra y prever su VI adherencia al soporte, así como en estado endurecido a 28 y 90 días de curado, para conocer las propiedades que permitieran prever su compatibilidad con aquél y estimar el alcance de la reducción de transferencias térmicas lograda. Además, se estudiaron las características generales de las mezclas que sirvieron para establecer correlaciones entre distintas propiedades y entender los resultados mecánicos, físicos (comportamiento frente al agua) y energéticos. Del estudio conjunto de las distintas propiedades analizadas se propusieron dos mezclas, una blanca y otra coloreada, cuyas características permiten garantizar la compatibilidad con la obra de fábrica antigua, desde el punto de vista físico y mecánico, y preservar la autenticidad de los revestimientos, en cuanto a la técnica de aplicación tradicional en sistemas multicapa. El comportamiento térmico de las mismas, sobre una obra de fábrica de 40 cm de espesor, se estimó, en estado estacionario y pseudo-transitorio, demostrándose reducciones del flujo térmico entre 16-48%, en condiciones de verano, y entre el 6-11%, en invierno, en función de la coloración y de la rugosidad de la superficie, en comparación con el empleo de la mezcla tradicional. Por lo que, se constata la viabilidad de los materiales compuestos propuestos y su adecuación al objetivo de la investigación. VII ABSTRACT The envelope is responsible for balancing the energy exchange between the inside and outside in buildings. For this reason, any action aimed at reducing energy consumption must establish, as one of its key priorities, its improvement. In rural areas and urban centers, most of the constructions were built before 1940. In them, the impact of the façade on the global transmittance highlights the need for intervention. However, its high thermal inertia and fluctuation of temperatures in the majority of Spain bring up that it should be placed outside the insulation. In this regard, the lack of availability of enough thickness to implement systems such as ETICS results in that often the only viable solution is to isolate the interior, losing thereby the wall’s heat storage capacity with the associated risk of condensation. The tradition in the use of renders, especially lime-based, allows us to use them not only as an aesthetic element or to protect the ancient masonry, but also for improved thermal performance of the support by taking advantage of the heat transfer mechanism by radiation. This is the aim of this Doctoral Thesis in which the modification of the radiative properties of lime mortars for renders to improve the energy efficiency of historic buildings, mainly composed of monolithic walls, is studied, although it could be applied to other structures composed of several layers. As a starting point, the available literature in the three scientific-technological areas that converge at the Doctoral Thesis: rehabilitation, material and thermal behaviour, was reviewed, and confirmed the absence of researches similar to this Doctoral Thesis. Additionally, the renders were studied with regard to the materials that constitute them, the composition of the mixtures and the characteristics of each layer, as well as to the approach which, from a thermal point of view, was deemed the most suitable for achieving the objectives sets. Based on thre aforementioned analysis, eighty materials tested in terms of reflectance and emissivity were pre-selected, to choose four with which the research was continued. Common marble sand, used in the last layer of the renders, together with the appointed materials and hydrated lime were characterized thermally, in detail, as well as chemically and physically. The theoretical bases and preliminary studies with different materials, in fresh and hardened state, were used in the dosage of the composition of the mixtures. In order to study their effect they were used in two different proportions, that is, ten mixtures in total. These were tested in their fresh state to evaluate their setting-up suitability and foresee their adhesion to the support, as well as in their hardened state, at 28 and 90 days of curing, to establish the properties which enabled us to anticipate their compatibility with the old masonry walls and estimate the scope of the reduction of heat transfers achieved. In addition, the general characteristics of the mixtures used to establish correlations and to understand the mechanical, physical and energy results were studied. Two mixtures, one white and one colored, were proposed as the result of the different properties analysed, whose characteristics allow the guarantee of mechanical and physical compatibility VIII with the old masonry and preserve the authenticity of the renders. The thermal behavior of both, applied on a masonry wall 40 cm thick, was estimated at a steady and pseudo-transient state, with heat flow reductions between 16-48% during summertime and 6-11% during wintertime, depending on the color and surface roughness, compared to the use of the traditional mixture. So, the viability of the proposed composite materials and their fitness to the aim of the research are established.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The presence of Pinus nigra in central Spain, where its natural populations are very rare, has led to different interpretations of the current vegetation dynamics. Complementary to the available palynological evidence, macroremains provide local information of high taxonomic resolution that helps to reconstruct the palaeobiogeography of a given species. Here we present new macrofossil data from Tubilla del Lago, a small palaeolake located at the eastern part of the northern Iberian Meseta. We identified 17 wood samples and 71 cones on the basis of their wood anatomy and morphology, respectively. S ome of the fossil samples were radiocarbon dated (~4.230-3210 years cal BP). The results demonstrate the Holocene presence of P. nigra in the study area, where it is currently extinct. This evidence, together with other published palaeobotanical studies, indicates that the forests dominated by P. nigra must have had a larger importance on the landscape prior to the anthropogenic influence on the northern Iberian Meseta.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estuco ha sido un acabado ornamental muy utilizado en Europa. En España permaneció hasta el 2º tercio del S.XX, habiéndose abandonado prácticamente en la actualidad, al desaparecer su tecnología con los últimos artesanos. Las fuentes documentales no aportan de forma concluyente los conocimientos para su recuperación, quizás por su carácter artesanal y reservado, como ocurre con el tratamiento "a fuego" del estuco. Esta comunicación se centra en esta técnica -caracterizada por el trabajo con una herramienta caliente- que obtiene revestimientos continuos que imitan a las piedras naturales. Todo ello resulta de interés desde diferentes ámbitos, que ayudarán en la restauración de los ejemplos del Patrimonio, y en la recuperación de un acabado original y actualizado para la arquitectura de nuestros días.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La raya o frontera entre las Coronas de Castilla y Aragón fue fortificada con un sistema de castillos y ciudades amuralladas que tuvieron su utilidad durante los diversos conflictos acaecidos en la Baja Edad Media. Esta frontera se mantuvo en constante litigio desde la reconquista del territorio a principios del siglo XII y su definición y defensa fue una de las preocupaciones de los monarcas castellanos. Durante los siglos XIV y XV, tras el advenimiento de la dinastía Trastámara, esta zona sufre un proceso de enajenación de los territorios realengos en favor de su señorialización, lo que supone un nuevo impulso constructivo de castillos señoriales mudéjares. Algunos de estos elementos fortificados se construyeron con fábricas encofradas de tapia de tierra o de cal y canto. Entre los primeros destacan los castillos de Serón de Nágima y Yanguas —ambos residencias señoriales mudéjares— construidos completamente en tapia de tierra, y algunos elementos en los de Arcos de Jalón, Torre de Martín González o las murallas de Ágreda. Por su parte, algún tramo de las murallas y parte del castillo de Soria, algunas fábricas del castillo de Vozmediano, las murallas de la villa fortificada de Peñalcázar y el castillo de Peroniel del Campo se levantaron con fábrica de tapia de cal y canto. A través del análisis de las improntas constructivas conservadas en estos ejemplos sorianos y de la puesta en paralelo con otras fábricas encofradas contemporáneas, aunque fuera del ámbito de estudio, se realiza una lectura constructiva de los procesos y las técnicas medievales de construcción en tapia. El objetivo de la presente comunicación es conocer las técnicas constructivas de una selección de estos castillos para interpretar la actividad edilicia de ese momento histórico y analizar su sistematización dentro del contexto histórico, geográfico y arquitectónico de los enfrentamientos fronterizos entre las coronas de Castilla y Aragón en el ámbito de la actual provincia de Soria. El análisis parte de un estudio dimensional y tipológico-constructivo en el que se atiende a las principales características de las fábricas de tapia para interpretar los procesos constructivos. Muchos de estos castillos han sido estudiados con anterioridad someramente sólo con herramientas historiográficas. Las conclusiones del análisis constructivo se confrontan con el análisis historiográfico con el fin de revisar la datación de algunos castillos, en la que se han observado errores o inexactitudes en las distintas fuentes consultadas. Se ha apreciado, así mismo, una falta de estudio que comprenda estas fortificaciones como participantes en un sistema territorial y en esto el estudio constructivo también colabora al analizar la sistematización constructiva. La comunicación avanza algunas conclusiones del análisis profundo, completo, general, ordenado y sistemático de la historia de la construcción de fortificaciones bajomedievales en la frontera de Castilla con Aragón en la actual provincia de Soria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar dos de las cuatro fases propias del procesado espectral: reducción dimensional y extracción de endmembers. Cabe mencionar que este trabajo se complementa con el realizado por Raquel Lazcano en su Proyecto Fin de Grado, donde se desarrollan las funciones necesarias para completar las otras dos fases necesarias en la cadena de desmezclado. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Proyecto Fin de Grado y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como los medios y las plataformas que servirán para realizar la división en núcleos y detectar las distintas problemáticas con las que nos podamos encontrar al realizar dicha división. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para componer la cadena de desmezclado y generar la librería; un punto importante en este apartado es la utilización de librerías especializadas en operaciones matriciales complejas, implementadas en C++. Tras explicar el método utilizado, se exponen los resultados obtenidos primero por etapas y, posteriormente, con la cadena de procesado completa, implementada en uno o varios núcleos. Por último, se aportan una serie de conclusiones obtenidas tras analizar los distintos algoritmos en cuanto a bondad de resultados, tiempos de procesado y consumo de recursos y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement two of the four stages of the hyperspectral imaging processing chain: dimensionality reduction and endmember extraction. This research is complemented with the research conducted by Raquel Lazcano in her Diploma Project, where she studies the other two stages of the processing chain. The document is divided in several chapters. The first of them introduces the motivation of the Diploma Project and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images and the software and hardware that we will use to parallelize the system and to analyze its performance. Once we have exposed the theoretical bases, we will explain the followed methodology to compose the processing chain and to generate the library; one of the most important issues in this chapter is the use of some C++ libraries specialized in complex matrix operations. At this point, we will expose the results obtained in the individual stage analysis and then, the results of the full processing chain implemented in one or several cores. Finally, we will extract some conclusions related with algorithm behavior, time processing and system performance. In the same way, we propose some future research lines according to the results obtained in this document

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ELos biomarcadores (n-alcanos y ácidos n-alcanoicos) presentes en el registro sedimentario de la turbera de Las Conchas (Llanes, Asturias) han permitido identificar períodos de condiciones ambientales húmedas y secas a lo largo de 8.000 años cal BP que pueden ser extrapolados al resto de Europa. Para ello, se analizaron 78 muestras a lo largo de un sondeo de 3,20 m, empleando un cromatógrafo de gases con detector selectivo de masas. Las variaciones en el contenido de biomarcadores se relacionaron con la predominancia de especies de Sphagnum (típicas de condiciones de mayor humedad) o con especies propias de condiciones más secas, como especies de Ericacea (brezos). Se sugiere que los cambios en la distribución de la vegetación están relacionados con las condiciones paleohidrológicas y paleoambientales y, de esta manera, se distinguen cinco períodos secos alternados con cinco períodos húmedos que no están necesariamente unidos a cambios en la temperatura. ABSTRACT Biomarkers (n-alkanes and n-alkanoic acids) present in the sedimentary record of Las Conchas peat bog (Llanes, Asturias) allowed the identification of 5 dry and humid periods in the last 8,000 years cal BP which can be extrapolated to the rest of Europe. For this purpose, 78 samples were analyzed along a core of 3.2 m deep using a gas chromatograph equipped with a selective mass detector. Variations in the biomarker content are related to the predominance of Sphagnum species (typical of humid conditions) or other species typical of dryer conditions, such as Ericacea (heather). This suggests that changes in the distribution of the vegetation were related to palaeohydrological and palaeoenvironmental conditions and, thus, we may distinguish five dry periods alternating with five humid periods which are not necessarily linked to variations in temperature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigación avanza en el intento de recuperar la técnica tradicional del estuco a fuego, paradigma de la decoración de espacios interiores hasta la mitad del s. XX por sus imitaciones marmóreas de gran calidad. Para ejecutarlos se utilizaban morteros de cal con áridos de mármol, pigmentos minerales y grasas; con estos materiales se preparaban y tendían las masas, se pintaban al fresco y se terminaban con el paso de una herramienta metálica caliente. Como sucede con otras técnicas, el paso del tiempo ha difuminado los conocimientos sobre la materia, haciendo muy difícil la conservación o restauración de los ejemplos en nuestro patrimonio. A partir de la escasa bibliografía existente se ha recuperado el proceso, sometiendo las muestras elaboradas a diferentes ensayos que han caracterizado el acabado final,tanto en sus características intrínsecas como en las que le son conferidas al proteger finalmente las muestras con una capa de cera, tal y como se realizaba tradicionalmente.---ABSTRACT---This research advances in the attempt to recover the traditional technique of stucco by fire; paradigm of indoor decoration until half of 20th century due to its high quality marbled imitations. On its implementation process, it was used lime mortars with marble aggregates, mineral pigments and greases. With these materials, masses were prepared and extended into the walls, they were painted in fresco and ended with the passage of a heated metal tool. As with any other technique, the time passing over has blurred the knowledge on the subject, making very difficult the preservation or restoration of examples in our heritage. Despite of the limited literature, the process has been recovered; subjecting the samples prepared at different trials that have characterized the finished, both in its merits and its conferred characteristics by finally protecting the samples with a layer of wax, as was done traditionally.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Análisis comparativo de la denominación que han recibido los revestimientos a lo largo de la historia, con especial atención a los revestimientos en base cal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar el clasificador conocido como Support Vector Machine – SVM. Cabe mencionar que este trabajo complementa el realizado en [1] y [2] donde se desarrollaron las funciones necesarias para implementar una cadena de procesado que utiliza el método unmixing para procesar la imagen hiperespectral. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Trabajo de Investigación y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como sus métodos de procesado y, en concreto, se detallará el método que utiliza el clasificador SVM. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para convertir una versión en Matlab del clasificador SVM optimizado para analizar imágenes hiperespectrales; un punto importante en este apartado es que se desarrolla la versión secuencial del algoritmo y se asientan las bases para una futura paralelización del clasificador. Tras explicar el método utilizado, se exponen los resultados obtenidos primero comparando ambas versiones y, posteriormente, analizando por etapas la versión adaptada al lenguaje RVC – CAL. Por último, se aportan una serie de conclusiones obtenidas tras analizar las dos versiones del clasificador SVM en cuanto a bondad de resultados y tiempos de procesado y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement the Support Vector Machine – SVM - classifier. This research complements the research conducted in [1] and [2] where the necessary functions to implement the unmixing method to analyze hyperspectral images were developed. The document is divided in several chapters. The first of them introduces the motivation of the Master Thesis and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images, their processing methods and, concretely, the SVM classifier. Once we have exposed the theoretical bases, we will explain the followed methodology to translate a Matlab version of the SVM classifier optimized to process an hyperspectral image to RVC – CAL language; one of the most important issues in this chapter is that a sequential implementation is developed and the bases of a future parallelization of the SVM classifier are set. At this point, we will expose the results obtained in the comparative between versions and then, the results of the different steps that compose the SVM in its RVC – CAL version. Finally, we will extract some conclusions related with algorithm behavior and time processing. In the same way, we propose some future research lines according to the results obtained in this document.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación de vídeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.