1000 resultados para Grout de cal hidráulica
Resumo:
Port. con orla tip
Resumo:
En el marco de SERELAREFA (Semillas REd LAtina Recuperación Ecosistemas Fluviales y Acuáticos) se ha propuesto el "Corredor fluvial río Tinguiririca". Esta iniciativa persigue llegar a definir una franja de territorio donde se le permita al río expresar su dinámica natural , pero controlándola con intervenciones de ingeniería integradas en el paisaje de manera que permita un desarrollo económico más seguro en las zonas aledañas y contar con los servicios ambientales brindados por un ecosistema en buen estado. Esta comunicación presenta la problemática del río Tinguiririca y la simulación hidráulica de un tramo del mismo río en la localidad de San Fernando en el marco del diseño del Corredor Fluvial Tinguririca. Se realizó un levantamiento topográfico de detalle del tramo y se simularon caudales crecientes en 2D con Infoworks ICM.
Resumo:
En el presente estudio se analizan las últimas técnicas aplicadas al reciclaje de los residuos de construcción y demolición (RCD), en los que además de los sistemas clásicos de estrio manual y mecánico, trituración y clasificación granulométrica se introducen los equipos de separación hidráulica (clasificadores de banda y tornillos sin fin) y los de pulsación por corriente turbulenta de acción diferencial (Jig). De igual forma los áridos reciclados ganan en calidad cuando se someten a procesos de separación magnética en los cuales las fracciones cerámicas (ladrillos) responden de forma positiva teniendo en cuenta los componentes férricos de las arcillas en su composición. La eficacia de estos sistemas de separación han sido ensayados en el laboratorio de concentración de menas de la Escuela de Minas de Madrid y los resultados obtenidos demuestran su potencial utilización en el reciclaje para la obtención de áridos más limpios.
Resumo:
El estuco ha sido un acabado ornamental muy utilizado en Europa. En España permaneció hasta el 2º tercio del S.XX, habiéndose abandonado prácticamente en la actualidad, al desaparecer su tecnología con los últimos artesanos. Las fuentes documentales no aportan de forma concluyente los conocimientos para su recuperación, quizás por su carácter artesanal y reservado, como ocurre con el tratamiento "a fuego" del estuco. Esta comunicación se centra en esta técnica -caracterizada por el trabajo con una herramienta caliente- que obtiene revestimientos continuos que imitan a las piedras naturales. Todo ello resulta de interés desde diferentes ámbitos, que ayudarán en la restauración de los ejemplos del Patrimonio, y en la recuperación de un acabado original y actualizado para la arquitectura de nuestros días.
Resumo:
La raya o frontera entre las Coronas de Castilla y Aragón fue fortificada con un sistema de castillos y ciudades amuralladas que tuvieron su utilidad durante los diversos conflictos acaecidos en la Baja Edad Media. Esta frontera se mantuvo en constante litigio desde la reconquista del territorio a principios del siglo XII y su definición y defensa fue una de las preocupaciones de los monarcas castellanos. Durante los siglos XIV y XV, tras el advenimiento de la dinastía Trastámara, esta zona sufre un proceso de enajenación de los territorios realengos en favor de su señorialización, lo que supone un nuevo impulso constructivo de castillos señoriales mudéjares. Algunos de estos elementos fortificados se construyeron con fábricas encofradas de tapia de tierra o de cal y canto. Entre los primeros destacan los castillos de Serón de Nágima y Yanguas —ambos residencias señoriales mudéjares— construidos completamente en tapia de tierra, y algunos elementos en los de Arcos de Jalón, Torre de Martín González o las murallas de Ágreda. Por su parte, algún tramo de las murallas y parte del castillo de Soria, algunas fábricas del castillo de Vozmediano, las murallas de la villa fortificada de Peñalcázar y el castillo de Peroniel del Campo se levantaron con fábrica de tapia de cal y canto. A través del análisis de las improntas constructivas conservadas en estos ejemplos sorianos y de la puesta en paralelo con otras fábricas encofradas contemporáneas, aunque fuera del ámbito de estudio, se realiza una lectura constructiva de los procesos y las técnicas medievales de construcción en tapia. El objetivo de la presente comunicación es conocer las técnicas constructivas de una selección de estos castillos para interpretar la actividad edilicia de ese momento histórico y analizar su sistematización dentro del contexto histórico, geográfico y arquitectónico de los enfrentamientos fronterizos entre las coronas de Castilla y Aragón en el ámbito de la actual provincia de Soria. El análisis parte de un estudio dimensional y tipológico-constructivo en el que se atiende a las principales características de las fábricas de tapia para interpretar los procesos constructivos. Muchos de estos castillos han sido estudiados con anterioridad someramente sólo con herramientas historiográficas. Las conclusiones del análisis constructivo se confrontan con el análisis historiográfico con el fin de revisar la datación de algunos castillos, en la que se han observado errores o inexactitudes en las distintas fuentes consultadas. Se ha apreciado, así mismo, una falta de estudio que comprenda estas fortificaciones como participantes en un sistema territorial y en esto el estudio constructivo también colabora al analizar la sistematización constructiva. La comunicación avanza algunas conclusiones del análisis profundo, completo, general, ordenado y sistemático de la historia de la construcción de fortificaciones bajomedievales en la frontera de Castilla con Aragón en la actual provincia de Soria.
Resumo:
El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar dos de las cuatro fases propias del procesado espectral: reducción dimensional y extracción de endmembers. Cabe mencionar que este trabajo se complementa con el realizado por Raquel Lazcano en su Proyecto Fin de Grado, donde se desarrollan las funciones necesarias para completar las otras dos fases necesarias en la cadena de desmezclado. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Proyecto Fin de Grado y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como los medios y las plataformas que servirán para realizar la división en núcleos y detectar las distintas problemáticas con las que nos podamos encontrar al realizar dicha división. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para componer la cadena de desmezclado y generar la librería; un punto importante en este apartado es la utilización de librerías especializadas en operaciones matriciales complejas, implementadas en C++. Tras explicar el método utilizado, se exponen los resultados obtenidos primero por etapas y, posteriormente, con la cadena de procesado completa, implementada en uno o varios núcleos. Por último, se aportan una serie de conclusiones obtenidas tras analizar los distintos algoritmos en cuanto a bondad de resultados, tiempos de procesado y consumo de recursos y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement two of the four stages of the hyperspectral imaging processing chain: dimensionality reduction and endmember extraction. This research is complemented with the research conducted by Raquel Lazcano in her Diploma Project, where she studies the other two stages of the processing chain. The document is divided in several chapters. The first of them introduces the motivation of the Diploma Project and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images and the software and hardware that we will use to parallelize the system and to analyze its performance. Once we have exposed the theoretical bases, we will explain the followed methodology to compose the processing chain and to generate the library; one of the most important issues in this chapter is the use of some C++ libraries specialized in complex matrix operations. At this point, we will expose the results obtained in the individual stage analysis and then, the results of the full processing chain implemented in one or several cores. Finally, we will extract some conclusions related with algorithm behavior, time processing and system performance. In the same way, we propose some future research lines according to the results obtained in this document
Resumo:
Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.
Resumo:
El proyecto tiene como objetivo el estudio de la viabilidad ecológica de la fracturación hidráulica. Para ello, demuestra primeramente que el beneficio de la aplicación de dicha técnica es una realidad., tomando como referencia a los Estados Unidos. Tras mostrar su rentabilidad, el estudio se centra en los riesgos que supone el uso de la fracturación hidráulica, a partir de los antecedentes para los cuales se realiza un análisis de cada uno de ellos y se aportan posibles soluciones. Para la realización de este estudio es necesario el abordarlo desde distintos puntos de vista, analizando tanto las opiniones contrarias a esta tecnología como a las opiniones favorables. Es también importante referirse a la legislación respectiva a la explotación de los recursos no convencionales, para comprobar su nivel de desarrollo. ABSTRACT The objective of this project is to investigate the ecological viability of fracking. To do this, we firstly demonstrate that the benefit of the application of this technique is a reality, taking the example of the United States. After this, the study focus on risks that can appear with the use of the hydraulic fracturing, referring to existing background, analyzing these cases and searching solutions for each one. For the realization of this study, it is necessary to focus it from different points of view, analyzing favorable and contrary opinions about this new technology. It also is necessary to address the legislative issue about the unconventional resources exploitation, checking it level or development.
Resumo:
Este proyecto tiene como objetivo ampliar, mediante la caracterización espectral y multitemporal por técnicas de teledetección y medidas in situ, el estudio del corredor fluvial para el río Tinguiririca en Chile. Consiste en estudiar la cobertura del terreno, evaluar su dinámica de cambio e identificar zonas de acumulación de materiales de alteración hidrotermal arcillosos y óxidos de hierro, presentes en la cuenca durante las últimas tres décadas que puedan explicar su evolución temporal. Se pretenden obtener nuevas variables geoespaciales que ayuden a comprender las posibles causas de variación del cauce, elaborando cartografía para una posterior fase de investigación mediante modelización hidráulica que vaya dirigida a paliar el impacto de las riadas periódicas. Para ello, se han empleado, tratado y explotado imágenes de los sensores remotos TM, ETM+, OLI y TIRS tomadas en un período comprendido entre 1993 y 2014, que se han contrastado con perfiles batimétricos, datos GPS, supervisión y muestreo tomados sobre el terreno. Se ha realizado así mismo, un estudio prospectivo de caso sobre cómo afectarían las variables obtenidas por teledetección a la modelización hidráulica, en particular, la rugosidad, proponiendo un marco metodológico global de integración de las tres técnicas: sistemas de información geográfica, teledetección y modelización hidráulica. ABSTRACT This project aims to develop the study of Tinguiririca River corridor in Chile, through spectral characterization and multitemporal remote sensing and other measurements. This involves studying the land cover, its dynamic changes and identifies clayey materials and iron oxides accumulations of hydrothermal alteration, present in the basin during the last three decades to explain their evolution. It aims to obtain new geospatial variables in order to understand the possible causes of channel variation, developing mapping to a later research stage using hydraulic modeling so as to mitigate the impact of periodic floods. In this way, it has used processed and exploited images of TM, ETM +, OLI and TIRS remote sensing, taken in a period between 1993 and 2014 which it has been compared with bathymetric profiles, GPS, monitoring and sampling data collected in the field . It has done a prospective study about the variables obtained condition on hydraulic modeling, roughness in particular, proposing IX a complete methodological framework about the integration of the three techniques: geographic information systems, remote sensing and modeling hydraulics
Resumo:
We have analysed the geochemical (element analysis), mineralogical and sedimentary facies to characterize the sedimentary record in Fuentillejo maar-lake in the central Spanish volcanic field of Campo de Calatrava and thus be able to reconstruct the cyclicity of the sedimentary and paleoclimatic processes involved. The upper 20 m of core FUENT-1 show variations in clastic input and water chemistry in the lake throughout the last 50 ka cal BP. Being a closed system, the water level in this maar-lake depends primarily on the balance between precipitation and evaporation
Resumo:
Esta investigación avanza en el intento de recuperar la técnica tradicional del estuco a fuego, paradigma de la decoración de espacios interiores hasta la mitad del s. XX por sus imitaciones marmóreas de gran calidad. Para ejecutarlos se utilizaban morteros de cal con áridos de mármol, pigmentos minerales y grasas; con estos materiales se preparaban y tendían las masas, se pintaban al fresco y se terminaban con el paso de una herramienta metálica caliente. Como sucede con otras técnicas, el paso del tiempo ha difuminado los conocimientos sobre la materia, haciendo muy difícil la conservación o restauración de los ejemplos en nuestro patrimonio. A partir de la escasa bibliografía existente se ha recuperado el proceso, sometiendo las muestras elaboradas a diferentes ensayos que han caracterizado el acabado final,tanto en sus características intrínsecas como en las que le son conferidas al proteger finalmente las muestras con una capa de cera, tal y como se realizaba tradicionalmente.---ABSTRACT---This research advances in the attempt to recover the traditional technique of stucco by fire; paradigm of indoor decoration until half of 20th century due to its high quality marbled imitations. On its implementation process, it was used lime mortars with marble aggregates, mineral pigments and greases. With these materials, masses were prepared and extended into the walls, they were painted in fresco and ended with the passage of a heated metal tool. As with any other technique, the time passing over has blurred the knowledge on the subject, making very difficult the preservation or restoration of examples in our heritage. Despite of the limited literature, the process has been recovered; subjecting the samples prepared at different trials that have characterized the finished, both in its merits and its conferred characteristics by finally protecting the samples with a layer of wax, as was done traditionally.
Resumo:
Análisis comparativo de la denominación que han recibido los revestimientos a lo largo de la historia, con especial atención a los revestimientos en base cal.
Resumo:
La implantación de una gran obra de paso facilita en multitud de ocasiones la vida de aquellos que aprovechen las ventajas que ofrece esta estructura. Sin embargo, el camino que lleva a su construcción supone importantes y tortuosos retos cuando el terreno de cimentación presenta condiciones geotécnicas no compatibles con las grandes cargas que el viaducto necesita transmitirle para su buen funcionamiento. El trabajo que desarrolla esta Tesis Doctoral proporciona una herramienta eficaz y económica, por lo reducido de su extensión y medios, que permite allanar el camino que acomete la construcción de una estructura de tal envergadura. Mediante el análisis de la problemática del terreno y de las distintas soluciones de cimentación empleadas en la actualidad, se conduce al lector hacia una técnica de cimentación innovadora que combina la técnica del micropilotaje, para la canalización de las cargas estructurales, junto a la técnica de la inyección de fracturación hidráulica, que mejorará el terreno de implantación de los micropilotes, conformando así un medio capaz de recibir y transmitir grandes cargas en cualquier tipo de terreno. La técnica ya empleada del micropilotaje, por su trabajo esencialmente axil, requiere, aunque sin problema, la constitución de sistemas de fuerzas que equilibren el sistema de cargas provenientes del viaducto. Pero su capacidad resistente viene condicionada por el terreno circundante. Cuando la roca rodea el micropilote, su empleo se realiza sin problema y sin necesidad de mejorar el terreno. Pero sin terreno consistente, el empleo de inyecciones de fracturación hidráulica a través de los propios micropilotes, no sólo mejorará la capacidad resistente de los micropilotes, aumentando la inercia necesaria cuando las cargas son de origen sísmico o estructural ferroviario, sino que resolverá y eliminará los problemas de estabilidad que presentan las laderas que frecuentemente deben recibir las cargas de la obra de paso. Tras recoger el análisis ya realizado en el Trabajo de Investigación, donde se justificaba la alta capacidad resistente de un micropilote con terreno circundante mejorado por la inyección, en la actual Tesis se emplean modelos matemáticos sobre un caso real de viaducto sometido a un gran sismo e implantado en una enorme quebrada (500 m) de Colombia, sujeta a lluvias torrenciales y en la zona de mayor sismicidad del país. Con ello se comprueba la estabilización que se alcanza en el terreno de cimentación con el empleo de esta técnica de transmisión de carga y mejora del terreno. De esta forma se completa un ciclo que justifica las bondades de esta combinación de técnicas de cimentación, pero se abren las puertas a nuevos entornos de aplicación, como edificios antiguos de cualquier tipo que requieran recalces, y no sólo en la implantación de grandes obras de paso. ABSTRACT The establishment of a large bridge represents, in many cases, a better life for those who can take profit of the advantages provided by that structure. Nevertheless, the process of building this structure has to overcome important and difficult circumstances whenever the geotechnical conditions of the bridge site are not adequate to carry the large loads transmitted by the bridge structure. This study develops a method both effective and economical, due to the extension and means necessary for its application, which allows to solve properly the foundation of a structure of that importance. Considering the geotechnical problems inherent to the bridge site, along with the different foundation solutions that are presently used and their limitations, the study leads the reader to an innovative technique which combines the micropile system, for transmission of the structural loads of the bridge, with the technique of hydraulic fracture grouting for improvement of the ground around the micropiles, allowing to both stabilizing and transmitting large loads in any kind of ground. It is well known that the micropiles work axially, and this condition requires an adequate distribution of those units, in order to properly absorb the load system introduced by the viaduct. The resistance of the bridge foundation is, in any case, provided by the ground. When rock is encountered, the micropiles have been successfully used without improving the ground. However, as it is shown in this study, by using the micropiles as sleeve-pipes for hydraulic fracture grouting, not only the micropile resistance can be improved in any ground, but it is possible to develop grouted “solids” in the ground, whose inertia allows to absorb actions of structural and seismic origin. Additionally, as it is shown and analyzed in the Thesis, the ground improvement can give an adequate safety factor to the slopes frequently encountered in bridge sites. In order to properly justify those advantages of combining micropiles with ground improvement through fracture grouting around the micropiles, mathematical models have been developed and applied to a real case of a cable-stayed bridge installed on a very large ravine (500 m) in Colombia, located in the highest seismic zone of the country, and subject to torrential rains. The results of this numerical analysis show the high safety condition provided by the ground improvement to the viaduct site. In conclusion, the Thesis shows the important improvement that can be provided by the combination of micropiles and soil improvement, through fracture grouting, to the problem of founding bridges. However, it can be understood that this technique could be applied successfully to underpinning buildings, specially old buildings of any type, apart from its use in bridge foundations.
Resumo:
Hoy en día los nuevos desarrollos en teledetección permiten la mejora de la caracterización y gestión del entorno fluvial. Especial relevancia muestra el escaneo laser aerotransportado. Este sistema es conocido como LiDAR (Light Detection and Ranging) y desde sus orígenes ha mejorado de manera excepcional sus resultados tanto en la precisión espacial de los puntos obtenidos, su post-procesado como su clasificación. Todo ello con una reducción de los costes, ahora asumible para ser incorporado en los proyectos de restauración fluvial. Sin embargo, no ha sido hasta fechas recientes cuando han comenzado a aparecer referencias en este sentido. Dando continuidad a esta línea de investigación, en este trabajo se presenta el resumen de los avances en relación al papel que puede presentar la tecnología LiDAR en un proyecto de restauración fluvial.
Resumo:
El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar el clasificador conocido como Support Vector Machine – SVM. Cabe mencionar que este trabajo complementa el realizado en [1] y [2] donde se desarrollaron las funciones necesarias para implementar una cadena de procesado que utiliza el método unmixing para procesar la imagen hiperespectral. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Trabajo de Investigación y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como sus métodos de procesado y, en concreto, se detallará el método que utiliza el clasificador SVM. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para convertir una versión en Matlab del clasificador SVM optimizado para analizar imágenes hiperespectrales; un punto importante en este apartado es que se desarrolla la versión secuencial del algoritmo y se asientan las bases para una futura paralelización del clasificador. Tras explicar el método utilizado, se exponen los resultados obtenidos primero comparando ambas versiones y, posteriormente, analizando por etapas la versión adaptada al lenguaje RVC – CAL. Por último, se aportan una serie de conclusiones obtenidas tras analizar las dos versiones del clasificador SVM en cuanto a bondad de resultados y tiempos de procesado y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement the Support Vector Machine – SVM - classifier. This research complements the research conducted in [1] and [2] where the necessary functions to implement the unmixing method to analyze hyperspectral images were developed. The document is divided in several chapters. The first of them introduces the motivation of the Master Thesis and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images, their processing methods and, concretely, the SVM classifier. Once we have exposed the theoretical bases, we will explain the followed methodology to translate a Matlab version of the SVM classifier optimized to process an hyperspectral image to RVC – CAL language; one of the most important issues in this chapter is that a sequential implementation is developed and the bases of a future parallelization of the SVM classifier are set. At this point, we will expose the results obtained in the comparative between versions and then, the results of the different steps that compose the SVM in its RVC – CAL version. Finally, we will extract some conclusions related with algorithm behavior and time processing. In the same way, we propose some future research lines according to the results obtained in this document.