149 resultados para Sistemas de distribución de información


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La posibilidad de utilizar sistemas cuánticos para procesar y transmitir información ha impulsado la aparición de tecnologías de información cuántica, p. ej., distribución cuántica de claves. Aunque prometedoras, su uso fuera del laboratorio es actualmente demasiado costoso y complicado. En este trabajo mostramos como utilizarlas en redes ópticas de telecomunicaciones. Al utilizar una infraestructura existente y pervasiva, y compartirla con otras señales, tanto clásicas como cuánticas, el coste se reduce drásticamente y llega a un mayor público. Comenzamos integrando señales cuánticas en los tipos más utilizados de redes ópticas pasivas, por su simplicidad y alcance a usuarios finales. Luego ampliamos este estudio, proponiendo un diseño de red óptica metropolitana basado en la división en longitud de onda para multiplexar y direccionar las señales. Verificamos su funcionamiento con un prototipo. Posteriormente, estudiamos la distribución de pares de fotones entrelazados entre los usuarios de dicha red con el objetivo de abarcar más tecnologías. Para ampliar la capacidad de usuarios, rediseñamos la red troncal, cambiando tanto la topología como la tecnología utilizada en los nodos. El resultado es una red metropolitana cuántica que escala a cualquier cantidad de usuarios, a costa de una mayor complejidad y coste. Finalmente, tratamos el problema de la limitación en distancia. La solución propuesta está basada en codificación de red y permite, mediante el uso de varios caminos y nodos, modular la cantidad de información que tiene cada nodo, y así, la confianza depositada en él. ABSTRACT The potential use of quantum systems to process and transmit information has impulsed the emergence of quantum information technologies such as quantum key distribution. Despite looking promising, their use out of the laboratory is limited since they are a very delicate technology due to the need of working at the single quantum level. In this work we show how to use them in optical telecommunication networks. Using an existing infrastructure and sharing it with other signals, both quantum and conventional, reduces dramatically the cost and allows to reach a large group of users. In this work, we will first integrate quantum signals in the most common passive optical networks, for their simplicity and reach to final users. Then, we extend this study by proposing a quantum metropolitan optical network based on wavelength-division multiplexing and wavelengthaddressing, verifying its operation mode in a testbed. Later, we study the distribution of entangled photon-pairs between the users of the network with the objective of covering as much different technologies as possible. We further explore other network architectures, changing the topology and the technology used at the nodes. The resulting network scales better at the cost of a more complex and expensive infrastructure. Finally, we tackle the distance limitation problem of quantum communications. The solution offered is based on networkcoding and allows, using multiple paths and nodes, to modulate the information leaked to each node, and thus, the degree of trust placed in them.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo es de interés para territorios en países en vías de desarrollo que tengan información escasa o limitada sobre la cual planificar Puntos de Acceso a Servicios (PAS). Está pensado para territorios que actualmente no cuenten con ningún o con escasos PAS y que estén interesados en aplicar esta estrategia para proveer de servicios a los ciudadanos de su territorio. Aquí se dan claves para tener una respuesta con base técnica para decidir cuántos PAS poner en el territorio y dónde ubicarlos. Ante la pregunta de ¿cómo realizar una distribución de puntos de acceso a servicios de gobierno electrónico sobre un territorio determinado?, este trabajo toma en cuenta tres variables: tamaño de la población, distancia entre poblaciones y costo de implantación de los puntos de acceso. Este proceso se basa en la teoría de localización de instalaciones y usa algoritmos genéticos como herramienta técnica. Se ha hecho la aplicación de esta metodología en dos contextos: el Municipio de Santa Elena (Ecuador) y en la provincia de Asturias (España). La selección de estos dos territorios se ha planteado para resaltar las diferencias de esfuerzos en la aplicación de una misma metodología en ambos contextos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La computación distribuida ha estado presente desde hace unos cuantos años, pero es quizás en la actualidad cuando está contando con una mayor repercusión. En los últimos años el modelo de computación en la nube (Cloud computing) ha ganado mucha popularidad, prueba de ello es la cantidad de productos existentes. Todo sistema informático requiere ser controlado a través de sistemas de monitorización que permiten conocer el estado del mismo, de tal manera que pueda ser gestionado fácilmente. Hoy en día la mayoría de los productos de monitorización existentes limitan a la hora de visualizar una representación real de la arquitectura de los sistemas a monitorizar, lo que puede dificultar la tarea de los administradores. Es decir, la visualización que proporcionan de la arquitectura del sistema, en muchos casos se ve influenciada por el diseño del sistema de visualización, lo que impide ver los niveles de la arquitectura y las relaciones entre estos. En este trabajo se presenta un sistema de monitorización para sistemas distribuidos o Cloud, que pretende dar solución a esta problemática, no limitando la representación de la arquitectura del sistema a monitorizar. El sistema está formado por: agentes, que se encargan de la tarea de recolección de las métricas del sistema monitorizado; un servidor, al que los agentes le envían las métricas para que las almacenen en una base de datos; y una aplicación web, a través de la que se visualiza toda la información. El sistema ha sido probado satisfactoriamente con la monitorización de CumuloNimbo, una plataforma como servicio (PaaS), que ofrece interfaz SQL y procesamiento transaccional altamente escalable sobre almacenes clave valor. Este trabajo describe la arquitectura del sistema de monitorización, y en concreto, el desarrollo de la principal contribución al sistema, la aplicación web. ---ABSTRACT---Distributed computing has been around for quite a long time, but now it is becoming more and more important. In the last few years, cloud computing, a branch of distributed computing has become very popular, as its different products in the market can prove. Every computing system requires to be controlled through monitoring systems to keep them functioning correctly. Currently, most of the monitoring systems in the market only provide a view of the architectures of the systems monitored, which in most cases do not permit having a real view of the system. This lack of vision can make administrators’ tasks really difficult. If they do not know the architecture perfectly, controlling the system based on the view that the monitoring system provides is extremely complicated. The project introduces a new monitoring system for distributed or Cloud systems, which shows the real architecture of the system. This new system is composed of several elements: agents, which collect the metrics of the monitored system; a server, which receives the metrics from the agents and saves them in a database; and a web application, which shows all the data collected in an easy way. The monitoring system has been tested successfully with Cumulonimbo. CumuloNimbo is a platform as a service (PaaS) which offers an SQL interface and a high-scalable transactional process. This platform works over key-value storage. This project describes the architecture of the monitoring system, especially, the development of the web application, which is the main contribution to the system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto presenta una introducción a los sistemas de gestión de la Seguridad de la Información (o SGSI) y describe el proceso de desarrollo de una herramienta informática de soporte a la implantación de forma fácil, eficaz y eficiente de un SGSI (se referirá a partir de ahora a esta herramienta como Herramienta de Implantación y Seguimiento de SGSI o HIS-SGSI) según lo definido por el estándar ISO/IEC 27001:2005.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las imágenes hiperespectrales permiten extraer información con una gran resolución espectral, que se suele extender desde el espectro ultravioleta hasta el infrarrojo. Aunque esta tecnología fue aplicada inicialmente a la observación de la superficie terrestre, esta característica ha hecho que, en los últimos años, la aplicación de estas imágenes se haya expandido a otros campos, como la medicina y, en concreto, la detección del cáncer. Sin embargo, este nuevo ámbito de aplicación ha generado nuevas necesidades, como la del procesado de las imágenes en tiempo real. Debido, precisamente, a la gran resolución espectral, estas imágenes requieren una elevada capacidad computacional para ser procesadas, lo que imposibilita la consecución de este objetivo con las técnicas tradicionales de procesado. En este sentido, una de las principales líneas de investigación persigue el objetivo del tiempo real mediante la paralelización del procesamiento, dividiendo esta carga computacional en varios núcleos que trabajen simultáneamente. A este respecto, en el presente documento se describe el desarrollo de una librería de procesado hiperespectral para el lenguaje RVC - CAL, que está específicamente pensado para el desarrollo de aplicaciones multimedia y proporciona las herramientas necesarias para paralelizar las aplicaciones. En concreto, en este Proyecto Fin de Grado se han desarrollado las funciones necesarias para implementar dos de las cuatro fases de la cadena de análisis de una imagen hiperespectral - en concreto, las fases de estimación del número de endmembers y de la estimación de la distribución de los mismos en la imagen -; conviene destacar que este trabajo se complementa con el realizado por Daniel Madroñal en su Proyecto Fin de Grado, donde desarrolla las funciones necesarias para completar las otras dos fases de la cadena. El presente documento sigue la estructura clásica de un trabajo de investigación, exponiendo, en primer lugar, las motivaciones que han cimentado este Proyecto Fin de Grado y los objetivos que se esperan alcanzar con él. A continuación, se realiza un amplio análisis del estado del arte de las tecnologías necesarias para su desarrollo, explicando, por un lado, las imágenes hiperespectrales y, por otro, todos los recursos hardware y software necesarios para la implementación de la librería. De esta forma, se proporcionarán todos los conceptos técnicos necesarios para el correcto seguimiento de este documento. Tras ello, se detallará la metodología seguida para la generación de la mencionada librería, así como el proceso de implementación de una cadena completa de procesado de imágenes hiperespectrales que permita la evaluación tanto de la bondad de la librería como del tiempo necesario para analizar una imagen hiperespectral completa. Una vez expuesta la metodología utilizada, se analizarán en detalle los resultados obtenidos en las pruebas realizadas; en primer lugar, se explicarán los resultados individuales extraídos del análisis de las dos etapas implementadas y, posteriormente, se discutirán los arrojados por el análisis de la ejecución de la cadena completa, tanto en uno como en varios núcleos. Por último, como resultado de este estudio se extraen una serie de conclusiones, que engloban aspectos como bondad de resultados, tiempos de ejecución y consumo de recursos; asimismo, se proponen una serie de líneas futuras de actuación con las que se podría continuar y complementar la investigación desarrollada en este documento. ABSTRACT. Hyperspectral imaging collects information from across the electromagnetic spectrum, covering a wide range of wavelengths. Although this technology was initially developed for remote sensing and earth observation, its multiple advantages - such as high spectral resolution - led to its application in other fields, as cancer detection. However, this new field has shown specific requirements; for example, it needs to accomplish strong time specifications, since all the potential applications - like surgical guidance or in vivo tumor detection - imply real-time requisites. Achieving this time requirements is a great challenge, as hyperspectral images generate extremely high volumes of data to process. For that reason, some new research lines are studying new processing techniques, and the most relevant ones are related to system parallelization: in order to reduce the computational load, this solution executes image analysis in several processors simultaneously; in that way, this computational load is divided among the different cores, and real-time specifications can be accomplished. This document describes the construction of a new hyperspectral processing library for RVC - CAL language, which is specifically designed for multimedia applications and allows multithreading compilation and system parallelization. This Diploma Project develops the required library functions to implement two of the four stages of the hyperspectral imaging processing chain - endmember and abundance estimations -. The two other stages - dimensionality reduction and endmember extraction - are studied in the Diploma Project of Daniel Madroñal, which complements the research work described in this document. The document follows the classical structure of a research work. Firstly, it introduces the motivations that have inspired this Diploma Project and the main objectives to achieve. After that, it thoroughly studies the state of the art of the technologies related to the development of the library. The state of the art contains all the concepts needed to understand the contents of this research work, like the definition and applications of hyperspectral imaging and the typical processing chain. Thirdly, it explains the methodology of the library implementation, as well as the construction of a complete processing chain in RVC - CAL applying the mentioned library. This chain will test both the correct behavior of the library and the time requirements for the complete analysis of one hyperspectral image, either executing the chain in one processor or in several ones. Afterwards, the collected results will be carefully analyzed: first of all, individual results -from endmember and abundance estimations stages - will be discussed and, after that, complete results will be studied; this results will be obtained from the complete processing chain, so they will analyze the effects of multithreading and system parallelization on the mentioned processing chain. Finally, as a result of this discussion, some conclusions will be gathered regarding some relevant aspects, such as algorithm behavior, execution times and processing performance. Likewise, this document will conclude with the proposal of some future research lines that could continue the research work described in this document.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta tesis es proponer una metodología capaz de cuantificar la dinámica paisajística a lo largo del gradiente urbano – rural perteneciente al sur de la Región Metropolitana de Madrid y su entorno. Esta tesis se estructura en ocho capítulos, planos y anejos. El primero se refiere a los antecedentes tanto conceptuales como metodológicos. Los primeros se centran en los diversos enfoques existentes en relación al estudio de la dinámica paisajística, con el objetivo de encontrar los puntos en común existentes entre el enfoque del metabolismo social, el de la ecología del paisaje y el humanista, para obtener un diagnóstico que permita entender la complejidad de la realidad a la que esta Tesis se enfrenta. Los segundos se centran en los antecedentes de carácter metodológico que también desde diversos enfoques han abordado el análisis de la dinámica paisajística. El segundo capítulo se centra en los objetivos concretos derivados del objetivo general ya expresado, la tesis considera que para comprender y cuantificar la dinámica hay que identificar en primer lugar los procesos de transformación, como manifestación espacial de los factores socioeconómicos y naturales responsables en última instancia de la variación de los patrones paisajísticos existentes. En segundo lugar se identifican los patrones paisajísticos con el objetivo de analizar sus características espaciales y su evolución en el período analizado. Por último se identifican los procesos paisajísticos, es decir qué tipos de variaciones espaciales se producen en los patrones paisajísticos como consecuencia de los procesos de transformación identificados así como su pauta de distribución a lo largo del gradiente urbano ‐ rural. El tercer capítulo se dedica a la caracterización del ámbito de estudio, ésta se extiende al sur del límite del suelo urbano de la capital madrileña en el año 1990, comprende la totalidad de los municipios madrileños que contactan con los municipios castellano – manchegos que se encuentran en el área de influencia de la capital, abarcando el área 9.968 km2. El cuarto capítulo se centra en la metodología. Como material de partida se ha utilizado en la cartografía del Corine Land Cover y como herramienta de análisis se ha utilizado los Sistemas de Información Geográfica. En primer lugar se identifican los procesos de transformación, acaecidos en los períodos 1990 – 2000 y 2000 – 2006, mediante la aplicación de matrices de transición. Se han identificado cuatro tipos de procesos dinámicos: Urbanización, abandono, renaturalización y agrarización. Se ha realizado un análisis de indicadores compuestos lo que ha permitido identificar los tipos de patrones paisajísticos existentes a lo largo del gradiente urbano – rural. Del mismo modo se ha calculado la variación de los indicadores individuales para identificar los procesos paisajísticos mediante el análisis de indicadores compuestos que se produjeron en el período 1990 – 2000 y 2000 – 2006. En el quinto capítulo se aportan los resultados tanto de carácter cuantitativo como gráfico de los tres componentes analizados tanto de forma independiente como integrada. En el sexto capítulo se describen las conclusiones producto de la investigación realizada. En el séptimo capítulo se identifican qué líneas de investigación podrían desarrollarse en el futuro para continuar la línea de investigación iniciada con esta tesis. ABSTRACT The aim of this thesis was to propose a methodology to characterize landscape dynamics along the urban – rural gradient in the south Madrid area. It´s structured in eight chapters, planes and annexes: the first one describes previous research. Firstly to make a diagnosis of the effects of landscape dynamic we have performed an integrated analysis from social metabolism, landscape ecology and the humanistic point of view. Secondly we have focused on previous methodological research mainly developped by landscape ecology. The second chapter focuses on specific objectives derived from the general objective. The thesis considers that to understand and quantify landscape dynamics must first identify the transformation processes: spatial manifestation of natural and socioeconomics factors that induce the change of landscape patterns. Secondly landscape patterns have been identified in order to analyze their spatial characteristics and evolution. Finally the landscape processes have been identified, i.e. what kind of spatial variations cause changes in landscape patterns along urban – rural gradient. The third chapter describes the study area. The study area occupies 9968 km2. It covers the area to the south of Madrid’s 1990 urban land area, and takes in the southeast of the Madrid Autonomous Region plus all the municipal areas of the Castilla–La Mancha Autonomous Region directly influenced by the expansion of Madrid. The fourth chapter contains the methodology. To identify the changes in the landscape of the study area, the land cover data for the area held in the CORINE LandCover Project Database was examined. To characterize the transformations processes in the period 1990 ‐ 2000 and 2000 – 2006, transition matrices were constructed. We have identified four clear changes: Urbanization, renaturalization, abandonment and agrarianization. We have characterized landscape patterns using composite indicators by integrating individual spatial metrics. Similarly we have characterized landscape processes using composite indicators by integrating the variation of individual spatial metrics. Chapter fifth includes the results, both for each component and its final integration. The conclusions of this research have been described in the sixth chapter. The seventh chapter describes what kind of investigations could be done in the future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta tesis es proponer una metodología capaz de cuantificar la dinámica paisajística a lo largo del gradiente urbano – rural perteneciente al sur de la Región Metropolitana de Madrid y su entorno. Esta tesis se estructura en ocho capítulos, planos y anejos. El primero se refiere a los antecedentes tanto conceptuales como metodológicos. Los primeros se centran en los diversos enfoques existentes en relación al estudio de la dinámica paisajística, con el objetivo de encontrar los puntos en común existentes entre el enfoque del metabolismo social, el de la ecología del paisaje y el humanista, para obtener un diagnóstico que permita entender la complejidad de la realidad a la que esta Tesis se enfrenta. Los segundos se centran en los antecedentes de carácter metodológico que también desde diversos enfoques han abordado el análisis de la dinámica paisajística. El segundo capítulo se centra en los objetivos concretos derivados del objetivo general ya expresado, la tesis considera que para comprender y cuantificar la dinámica hay que identificar en primer lugar los procesos de transformación, como manifestación espacial de los factores socioeconómicos y naturales responsables en última instancia de la variación de los patrones paisajísticos existentes. En segundo lugar se identifican los patrones paisajísticos con el objetivo de analizar sus características espaciales y su evolución en el período analizado. Por último se identifican los procesos paisajísticos, es decir qué tipos de variaciones espaciales se producen en los patrones paisajísticos como consecuencia de los procesos de transformación identificados así como su pauta de distribución a lo largo del gradiente urbano ‐ rural. El tercer capítulo se dedica a la caracterización del ámbito de estudio, ésta se extiende al sur del límite del suelo urbano de la capital madrileña en el año 1990, comprende la totalidad de los municipios madrileños que contactan con los municipios castellano – manchegos que se encuentran en el área de influencia de la capital, abarcando el área 9.968 km2. El cuarto capítulo se centra en la metodología. Como material de partida se ha utilizado en la cartografía del Corine Land Cover y como herramienta de análisis se ha utilizado los Sistemas de Información Geográfica. En primer lugar se identifican los procesos de transformación, acaecidos en los períodos 1990 – 2000 y 2000 – 2006, mediante la aplicación de matrices de transición. Se han identificado cuatro tipos de procesos dinámicos: Urbanización, abandono, renaturalización y agrarización. Se ha realizado un análisis de indicadores compuestos lo que ha permitido identificar los tipos de patrones paisajísticos existentes a lo largo del gradiente urbano – rural. Del mismo modo se ha calculado la variación de los indicadores individuales para identificar los procesos paisajísticos mediante el análisis de indicadores compuestos que se produjeron en el período 1990 – 2000 y 2000 – 2006. En el quinto capítulo se aportan los resultados tanto de carácter cuantitativo como gráfico de los tres componentes analizados tanto de forma independiente como integrada. En el sexto capítulo se describen las conclusiones producto de la investigación realizada. En el séptimo capítulo se identifican qué líneas de investigación podrían desarrollarse en el futuro para continuar la línea de investigación iniciada con esta tesis. ABSTRACT The aim of this thesis was to propose a methodology to characterize landscape dynamics along the urban – rural gradient in the south Madrid area. It´s structured in eight chapters, planes and annexes: the first one describes previous research. Firstly to make a diagnosis of the effects of landscape dynamic we have performed an integrated analysis from social metabolism, landscape ecology and the humanistic point of view. Secondly we have focused on previous methodological research mainly developped by landscape ecology. The second chapter focuses on specific objectives derived from the general objective. The thesis considers that to understand and quantify landscape dynamics must first identify the transformation processes: spatial manifestation of natural and socioeconomics factors that induce the change of landscape patterns. Secondly landscape patterns have been identified in order to analyze their spatial characteristics and evolution. Finally the landscape processes have been identified, i.e. what kind of spatial variations cause changes in landscape patterns along urban – rural gradient. The third chapter describes the study area. The study area occupies 9968 km2. It covers the area to the south of Madrid’s 1990 urban land area, and takes in the southeast of the Madrid Autonomous Region plus all the municipal areas of the Castilla–La Mancha Autonomous Region directly influenced by the expansion of Madrid. The fourth chapter contains the methodology. To identify the changes in the landscape of the study area, the land cover data for the area held in the CORINE LandCover Project Database was examined. To characterize the transformations processes in the period 1990 ‐ 2000 and 2000 – 2006, transition matrices were constructed. We have identified four clear changes: Urbanization, renaturalization, abandonment and agrarianization. We have characterized landscape patterns using composite indicators by integrating individual spatial metrics. Similarly we have characterized landscape processes using composite indicators by integrating the variation of individual spatial metrics. Chapter fifth includes the results, both for each component and its final integration. The conclusions of this research have been described in the sixth chapter. The seventh chapter describes what kind of investigations could be done in the future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado está enmarcado dentro de las actividades del GRyS (Grupo de Redes y Servicios de Próxima Generación) con las Smart Grids. En la investigación actual sobre Smart Grids se pretenden alcanzar los siguientes objetivos: . Integrar fuentes de energías renovables de manera efectiva. . Aumentar la eficiencia en la gestión de la demanda y suministro de forma dinámica. . Reducir las emisiones de CO2 dando prioridad a fuentes de energía verdes. . Concienciar del consumo de energía mediante la monitorización de dispositivos y servicios. . Estimular el desarrollo de un mercado vanguardista de tecnologías energéticamente eficientes con nuevos modelos de negocio. Dentro del contexto de las Smart Grids, el interés del GRyS se extiende básicamente a la creación de middlewares semánticos y tecnologías afines, como las ontologías de servicios y las bases de datos semánticas. El objetivo de este Proyecto Fin de Grado ha sido diseñar y desarrollar una aplicación para dispositivos con sistema operativo Android, que implementa una interfaz gráfica y los métodos necesarios para obtener y representar información de registro de servicios de una plataforma SOA (Service-Oriented Architecture). La aplicación permite: . Representar información relativa a los servicios y dispositivos registrados en una Smart Grid. . Guardar, cargar y compartir por correo electrónico ficheros HTML con la información anterior. . Representar en un mapa la ubicación de los dispositivos. . Representar medidas (voltaje, temperatura, etc.) en tiempo real. . Aplicar filtros por identificador de dispositivo, modelo o fabricante. . Realizar consultas SPARQL a bases de datos semánticas. . Guardar y cagar consultas SPARQL en ficheros de texto almacenados en la tarjeta SD. La aplicación, desarrollada en Java, es de código libre y hace uso de tecnologías estándar y abiertas como HTML, XML, SPARQL y servicios RESTful. Se ha tenido ocasión de probarla con la infraestructura del proyecto europeo e-Gotham (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), en el que participan 17 socios de 5 países: España, Italia, Estonia, Finlandia y Noruega. En esta memoria se detalla el estudio realizado sobre el Estado del arte y las tecnologías utilizadas en el desarrollo del proyecto, la implementación, diseño y arquitectura de la aplicación, así como las pruebas realizadas y los resultados obtenidos. ABSTRACT. This Final Degree Project is framed within the activities of the GRyS (Grupo de Redes y Servicios de Próxima Generación) with the Smart Grids. Current research on Smart Grids aims to achieve the following objectives: . To effectively integrate renewable energy sources. . To increase management efficiency by dynamically matching demand and supply. . To reduce carbon emissions by giving priority to green energy sources. . To raise energy consumption awareness by monitoring products and services. . To stimulate the development of a leading-edge market for energy-efficient technologies with new business models. Within the context of the Smart Grids, the interest of the GRyS basically extends to the creation of semantic middleware and related technologies, such as service ontologies and semantic data bases. The objective of this Final Degree Project has been to design and develop an application for devices with Android operating system, which implements a graphical interface and methods to obtain and represent services registry information in a Service-Oriented Architecture (SOA) platform. The application allows users to: . Represent information related to services and devices registered in a Smart Grid. . Save, load and share HTML files with the above information by email. . Represent the location of devices on a map. . Represent measures (voltage, temperature, etc.) in real time. . Apply filters by device id, model or manufacturer. . SPARQL query semantic database. . Save and load SPARQL queries in text files stored on the SD card. The application, developed in Java, is open source and uses open standards such as HTML, XML, SPARQL and RESTful services technologies. It has been tested in a real environment using the e-Gotham European project infrastructure (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), which is participated by 17 partners from 5 countries: Spain, Italy, Estonia, Finland and Norway. This report details the study on the State of the art and the technologies used in the development of the project, implementation, design and architecture of the application, as well as the tests performed and the results obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis se enmarca dentro de una línea de investigación iniciada en el 2004 focalizada en el estudio de soluciones constructivas energéticamente eficientes para la crianza del vino. El objetivo principal es promover el ahorro energético y la sostenibilidad en el diseño de la sala de crianza de las bodegas. Para ello, se profundiza en el estudio de las bodegas subterráneas, ejemplo de eco-construcción, ya que por lo general proporcionan condiciones adecuadas para la crianza sin gasto energético en climatización. En concreto, se abordan aspectos clave para la caracterización y comprensión del funcionamiento de estas construcciones, que en muchas ocasiones condicionan el éxito o el fracaso de las mismas. Así, se analiza el complejo comportamiento de la ventilación natural a lo largo del año, determinando los factores que la condicionan, desvelando el papel que desempeña tanto el túnel de acceso como las chimeneas de ventilación en su funcionamiento. Además, se desarrollan y validan modelos de simulación mediante CFD, que permiten evaluar y predecir con detalle el comportamiento termofluidodinámico de las construcciones subterráneas. Por otra parte, se cuantifica la uniformidad y estabilidad de la sala de crianza a lo largo del año, información que permite fijar recomendaciones y pautas concretas de diseño de los planes de monitorización. Finalmente, se determinan las diferencias de comportamiento higrotérmico existentes entre un amplio abanico de bodegas subterráneas para vino tinto, bodegas representativas de otras soluciones constructivas alternativas de vino tinto, así como bodegas para cavas y vinos generosos, enmarcando el comportamiento de estas bodegas en un contexto global. Además, se desarrollan metodologías adaptadas a las características particulares de estas construcciones, en concreto un sistema de monitorización basado en termografía infrarroja para llevar a cabo inspecciones puntuales para el control ambiental de grandes naves de crianza. Es de esperar que los estudios técnicos y las herramientas desarrolladas ayuden a mejorar el diseño de nuevas bodegas, y a la mejora de las condiciones higrotérmicas de las ya existentes, colaborando a que España siga situada en la vanguardia de la producción de vino de calidad. ABSTRACT This thesis is part of the research started in 2004 and focusing on the study of the energy efficiency in wine aging constructive solutions. The main objective is to promote energy conservation and sustainability in the design of wine aging rooms. To do so, this study focuses on the analysis of the underground cellars, example of eco-construction, since they usually provide adequate conditions for wine aging without using air-conditioning systems. In particular, key aspects for characterizing and understanding these constructions, which often determine the success or failure of them. Thus, the complex behavior of natural ventilation throughout the year is discussed, determining the influencing factors and revealing the role of both the access tunnel and the ventilation chimney. In addition, numerical models are developed and validated using CFD simulation, allowing an in-depth assessment and prediction of the thermofluidynamic behavior in underground constructions. Moreover, uniformity and stability of the aging room throughout the year is quantified, allowing for precise information useful to set recommendations and design guidelines for defining monitoring plans. Finally, hygrothermal behavior differences between a wide range of underground cellars for red wine, red wine wineries with alternative construction solutions and wineries for generous wines and cava wines, In addition, new methodologies adapted towards the particular characteristics of these constructions, a monitoring system based on infrared thermography to perform periodic inspections for environmental controls of the aging rooms, are developed. It is expected that the technical studies and tools developed here will help to improve the design of new wineries, and also the hygrothermal conditions of the existing ones, headed for keeping Spain in the forefront of the countries producing high quality wine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado se centra en la definición de unos interfaces y el desarrollo de unos módulos que los ofrezcan y que permitan desarrollar un sistema para Smartphone mediante el que se puedan obtener medidas tanto de dispositivos biométricos como de una red inalámbrica de sensores (WSN – Wireless Sensor Network). Estos dos tipos de medidas deben poder ser mostradas de manera que se observe gráficamente su correlación espacio-temporal. Por tanto, estos interfaces ofrecen, principalmente, la posibilidad de gestionar un número indeterminado de dispositivos biométricos y tomar medidas de ellos, además de mecanismos de almacenamiento para dichas medidas. También existe la posibilidad de crear una representación gráfica de dichas medidas. Por último, se desarrolla un interfaz para obtener información proveniente de una red de sensores inalámbricos instalada en un determinado entorno en el cual el usuario estará realizando sus propias medidas. Además, se lleva a cabo la creación de la aplicación comentada, que hace uso de las interfaces especificadas, para realizar la correlación de las medidas. La aplicación permite al usuario mantener una lista de dispositivos, pudiendo consultar los parámetros de configuración de los mismos y tomar las medidas de aquellos que desee. Podrá visualizar en todo momento las medidas que se van realizando, y, por último, podrá representarlas gráficamente en pantalla. Los interfaces están creados de forma que sean flexibles de modo que puedan añadirse nuevas funciones en un futuro y permitan ser utilizados para diferentes aplicaciones. Los módulos que ofrecen estos interfaces están desarrollados para cumplir todas las funcionalidades que esperamos llevar a cabo en la aplicación creada. ABSTRACT. This Final Degree Project is focused on the definition of a set of interfaces, together with the implementation of the modules that comply with them, with the aim of creating a smartphone-based system to obtain measurements from both biometric devices and a wireless sensor network (WSN). These two types of measurements have to be graphically shown in order to observe their spatial and temporal correlation. Thus, the main purpose of the aforementioned interfaces is to manage an indeterminate number of biometric devices in order to obtain and store the measurements provided by them. There is also the possibility of creating a graphical representation of the data. In addition to all this, an interface has been developed for obtaining the information coming from a wireless sensor network deployed in the area where the user is taking his/her measurements. Also as part of the work performed, the smartphone application that utilizes the specified interfaces has been implemented, in order to actually perform the measurements correlation. This application allows the user to maintain the biometric devices list and control their configuration, including the activation of the measurements taking process. These data can be visualized anytime and, moreover, they can be represented graphically in the smartphone screen. The design of the interfaces is flexible in the sense that new functionality may be easily added to them in the future and new applications with different purposes may make use of them. The modules implemented as part of this Final Degree Project have been developed in order to comply with all the requirements of the smartphone system described above.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Algunos trabajos recientes han desarrollado varias alternativas a Cascade, entre las cuales destacan aquellas basadas en el uso de técnicas de codificación modernas. Por ejemplo, a través del uso de códigos Low-Density Parity-Check (LDPC) hoy día encontramos varias propuestas que permiten mejorar la eficiencia de la reconciliación de clave para ratios de error elevados. Al utilizar códigos LDPC tan sólo se requiere un único uso del canal de comunicación. Estas propuestas se basan en una técnica conocida como “codificación de síndrome” que permite aplicar métodos de corrección de errores para reconciliar cadenas aleatorias correlacionadas. En una de estas propuestas aplicamos dos técnicas conocidas en codificación, cómo son la perforación y el acortado de símbolos, para adaptar en tiempo real el ratio de información proporcionado por el síndrome intercambiado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La principal aportación de esta tesis doctoral ha sido la propuesta y evaluación de un sistema de traducción automática que permite la comunicación entre personas oyentes y sordas. Este sistema está formado a su vez por dos sistemas: un traductor de habla en español a Lengua de Signos Española (LSE) escrita y que posteriormente se representa mediante un agente animado; y un generador de habla en español a partir de una secuencia de signos escritos mediante glosas. El primero de ellos consta de un reconocedor de habla, un módulo de traducción entre lenguas y un agente animado que representa los signos en LSE. El segundo sistema está formado por una interfaz gráfica donde se puede especificar una secuencia de signos mediante glosas (palabras en mayúscula que representan los signos), un módulo de traducción entre lenguas y un conversor texto-habla. Para el desarrollo del sistema de traducción, en primer lugar se ha generado un corpus paralelo de 7696 frases en español con sus correspondientes traducciones a LSE. Estas frases pertenecen a cuatro dominios de aplicación distintos: la renovación del Documento Nacional de Identidad, la renovación del permiso de conducir, un servicio de información de autobuses urbanos y la recepción de un hotel. Además, se ha generado una base de datos con más de 1000 signos almacenados en cuatro sistemas distintos de signo-escritura. En segundo lugar, se ha desarrollado un módulo de traducción automática que integra dos técnicas de traducción con una estructura jerárquica: la primera basada en memoria y la segunda estadística. Además, se ha implementado un módulo de pre-procesamiento de las frases en español que, mediante su incorporación al módulo de traducción estadística, permite mejorar significativamente la tasa de traducción. En esta tesis también se ha mejorado la versión de la interfaz de traducción de LSE a habla. Por un lado, se han incorporado nuevas características que mejoran su usabilidad y, por otro, se ha integrado un traductor de lenguaje SMS (Short Message Service – Servicio de Mensajes Cortos) a español, que permite especificar la secuencia a traducir en lenguaje SMS, además de mediante una secuencia de glosas. El sistema de traducción propuesto se ha evaluado con usuarios reales en dos dominios de aplicación: un servicio de información de autobuses de la Empresa Municipal de Transportes de Madrid y la recepción del Hotel Intur Palacio San Martín de Madrid. En la evaluación estuvieron implicadas personas sordas y empleados de los dos servicios. Se extrajeron medidas objetivas (obtenidas por el sistema automáticamente) y subjetivas (mediante cuestionarios a los usuarios). Los resultados fueron muy positivos gracias a la opinión de los usuarios de la evaluación, que validaron el funcionamiento del sistema de traducción y dieron información valiosa para futuras líneas de trabajo. Por otro lado, tras la integración de cada uno de los módulos de los dos sistemas de traducción (habla-LSE y LSE-habla), los resultados de la evaluación y la experiencia adquirida en todo el proceso, una aportación importante de esta tesis doctoral es la propuesta de metodología de desarrollo de sistemas de traducción de habla a lengua de signos en los dos sentidos de la comunicación. En esta metodología se detallan los pasos a seguir para desarrollar el sistema de traducción para un nuevo dominio de aplicación. Además, la metodología describe cómo diseñar cada uno de los módulos del sistema para mejorar su flexibilidad, de manera que resulte más sencillo adaptar el sistema desarrollado a un nuevo dominio de aplicación. Finalmente, en esta tesis se analizan algunas técnicas para seleccionar las frases de un corpus paralelo fuera de dominio para entrenar el modelo de traducción cuando se quieren traducir frases de un nuevo dominio de aplicación; así como técnicas para seleccionar qué frases del nuevo dominio resultan más interesantes que traduzcan los expertos en LSE para entrenar el modelo de traducción. El objetivo es conseguir una buena tasa de traducción con la menor cantidad posible de frases. ABSTRACT The main contribution of this thesis has been the proposal and evaluation of an automatic translation system for improving the communication between hearing and deaf people. This system is made up of two systems: a Spanish into Spanish Sign Language (LSE – Lengua de Signos Española) translator and a Spanish generator from LSE sign sequences. The first one consists of a speech recognizer, a language translation module and an avatar that represents the sign sequence. The second one is made up an interface for specifying the sign sequence, a language translation module and a text-to-speech conversor. For the translation system development, firstly, a parallel corpus has been generated with 7,696 Spanish sentences and their LSE translations. These sentences are related to four different application domains: the renewal of the Identity Document, the renewal of the driver license, a bus information service and a hotel reception. Moreover, a sign database has been generated with more than 1,000 signs described in four different signwriting systems. Secondly, it has been developed an automatic translation module that integrates two translation techniques in a hierarchical structure: the first one is a memory-based technique and the second one is statistical. Furthermore, a pre processing module for the Spanish sentences has been implemented. By incorporating this pre processing module into the statistical translation module, the accuracy of the translation module improves significantly. In this thesis, the LSE into speech translation interface has been improved. On the one hand, new characteristics that improve its usability have been incorporated and, on the other hand, a SMS language into Spanish translator has been integrated, that lets specifying in SMS language the sequence to translate, besides by specifying a sign sequence. The proposed translation system has been evaluated in two application domains: a bus information service of the Empresa Municipal de Transportes of Madrid and the Hotel Intur Palacio San Martín reception. This evaluation has involved both deaf people and services employees. Objective measurements (given automatically by the system) and subjective measurements (given by user questionnaires) were extracted during the evaluation. Results have been very positive, thanks to the user opinions during the evaluation that validated the system performance and gave important information for future work. Finally, after the integration of each module of the two translation systems (speech- LSE and LSE-speech), obtaining the evaluation results and considering the experience throughout the process, a methodology for developing speech into sign language (and vice versa) into a new domain has been proposed in this thesis. This methodology includes the steps to follow for developing the translation system in a new application domain. Moreover, this methodology proposes the way to improve the flexibility of each system module, so that the adaptation of the system to a new application domain can be easier. On the other hand, some techniques are analyzed for selecting the out-of-domain parallel corpus sentences in order to train the translation module in a new domain; as well as techniques for selecting which in-domain sentences are more interesting for translating them (by LSE experts) in order to train the translation model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los modelos de termomecánica glaciar están definidos mediante sistemas de ecuaciones en derivadas parciales que establecen los principios básicos de conservación de masa, momento lineal y energía, acompañados por una ley constitutiva que define la relación entre las tensiones a las que está sometido el hielo glaciar y las deformaciones resultantes de las mismas. La resolución de estas ecuaciones requiere la definición precisa del dominio (la geometría del glaciar, obtenido a partir de medidas topográficas y de georradar), así como contar con un conjunto de condiciones de contorno, que se obtienen a partir de medidas de campo de las variables implicadas y que constituyen un conjunto de datos geoespaciales. El objetivo fundamental de esta tesis es desarrollar una serie de herramientas que nos permitan definir con precisión la geometría del glaciar y disponer de un conjunto adecuado de valores de las variables a utilizar como condiciones de contorno del problema. Para ello, en esta tesis se aborda la recopilación, la integración y el estudio de los datos geoespaciales existentes para la Península Hurd, en la Isla Livingston (Antártida), generados desde el año 1957 hasta la actualidad, en un sistema de información geográfica. Del correcto tratamiento y procesamiento de estos datos se obtienen otra serie de elementos que nos permiten realizar la simulación numérica del régimen termomecánico presente de los glaciares de Península Hurd, así como su evolución futura. Con este objetivo se desarrolla en primer lugar un inventario completo de datos geoespaciales y se realiza un procesado de los datos capturados en campo, para establecer un sistema de referencia común a todos ellos. Se unifican además todos los datos bajo un mismo formato estándar de almacenamiento e intercambio de información, generándose los metadatos correspondientes. Se desarrollan asimismo técnicas para la mejora de los procedimientos de captura y procesado de los datos, de forma que se minimicen los errores y se disponga de estimaciones fiables de los mismos. El hecho de que toda la información se integre en un sistema de información geográfica (una vez producida la normalización e inventariado de la misma) permite su consulta rápida y ágil por terceros. Además, hace posible efectuar sobre ella una serie de operaciones conducentes a la obtención de nuevas capas de información. El análisis de estos nuevos datos permite explicar el comportamiento pasado de los glaciares objeto de estudio y proporciona elementos esenciales para la simulación de su comportamiento futuro. ABSTRACT Glacier thermo-mechanical models are defined by systems of partial differential equations stating the basic principles of conservation of mass, momentum and energy, accompanied by a constitutive principle that defines the relationship between the stresses acting on the ice and the resulting deformations. The solution of these equations requires an accurate definition of the model domain (the geometry of the glacier, obtained from topographical and ground penetrating radar measurements), as well as a set of boundary conditions, which are obtained from measurements of the variables involved and define a set of geospatial data. The main objective of this thesis is to develop tools able to provide an accurate definition of the glacier geometry and getting a proper set of values for the variables to be used as boundary conditions of our problem. With the above aim, this thesis focuses on the collection, compilation and study of the geospatial data existing for the Hurd Peninsula on Livingston Island, Antarctica, generated since 1957 to present, into a geographic information system. The correct handling and processing of these data results on a new collection of elements that allow us to numerically model the present state and the future evolution of Hurd Peninsula glaciers. First, a complete inventory of geospatial data is developed and the captured data are processed, with the aim of establishing a reference system common to all collections of data. All data are stored under a common standard format, and the corresponding metadata are generated to facilitate the information exchange. We also develop techniques for the improvement of the procedures used for capturing and processing the data, such that the errors are minimized and better estimated. All information is integrated into a geographic information system (once produced the standardization and inventory of it). This allows easy and fast viewing and consulting of the data by third parties. Also, it is possible to carry out a series of operations leading to the production of new layers of information. The analysis of these new data allows to explain past glacier behavior, and provides essential elements for explaining its future evolution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El principal objetivo de este estudio es la evaluación de la distribución espacial de los parámetros acústicos en un recinto a través de la aplicación de técnicas geoestadísticas como el método Kriging. Mediante el uso de la herramienta de análisis espacial ArcMap, perteneciente a la plataforma ArcGIS, se ha analizado el comportamiento acústico del Salón de Actos común a la Escuela Técnica Superior de Ingeniería y Sistemas de Telecomunicación (ETSIST) y la Escuela Técnica Superior de Ingeniería de Sistemas Informáticos (ETSISI), ambas situadas en el Campus Sur de la Universidad Politécnica de Madrid. Se han realizado mediciones in-situ del recinto no ocupado utilizando la herramienta de medición DIRAC Room Acoustics y el método de la respuesta impulsiva integrada, extrayéndose los parámetros acústicos de tiempo de reverberación (RT), tiempo de reverberación inicial (EDT), fuerza sonora relativa (Grel), claridad (C80), tiempo central (Ts), definición (D50) e Índice de Transmisión Rápida de la Palabra (RASTI). Se ha analizado la adecuación de los valores observados de Grel, C80 y Ts al modelo teórico de Barron y estimado, mediante el método Kriging Ordinario, el conjunto de parámetros medidos en el recinto, obteniéndose los semivariograma y mapas de estimación correspondientes. Además, se ha evaluado la calidad de la estimación en base a un número de puntos de medición reducido. A la vista de los resultados obtenidos, en general, el método Kriging puede considerarse un buen interpolador de los parámetros acústicos en un recinto, observándose que los parámetros que evalúan relaciones energéticas, especialmente la fuerza sonora relativa (Grel) proporcionan mejores estimaciones en comparación con aquellos relacionados con la reverberación y la inteligibilidad del habla. El coeficiente de determinación (R2) constituye una medida útil para evaluar la precisión de la estimación. Además, la entropía de los datos observados puede ser un buen indicador a priori de la precisión de la estimación. Asimismo, se ha demostrado que, basándose en un reducido número de puntos de medición, es posible obtener una estimación precisa de los parámetros acústicos de fuerza sonora relativa (Grel) y tiempo central (Ts). ABSTRACT. This project aims to evaluate the feasibility of using geostatistical techniques such as Kriging on the analysis of the spatial distribution of the acoustic parameters in rooms. The acoustic behaviour of the Assembly Hall of the ETSIST and ETSISI (Universidad Politécnica de Madrid) is investigated using ArcMap, which is the main component of ArcGIS suite of geospatial processing programs. For this purpose, in-situ acoustic measurements are carried out in the unoccupied room using DIRAC Room Acoustics software. The following acoustic parameters are measured by means of the integrated impulse response method for further examination: Reverberation Time (RT), Early Decay Time (EDT), Relative Strength (Grel), Clarity (C80), Centre Time (Ts), Definition (D50) and Rapid Speech Transmission Index (RASTI). Goodness-of-fit of measured Grel, C80 and Ts values to Barron’s theory is determined and Ordinary Kriging is applied to all the measured parameters in order to calculate the semivariogram and prediction surfaces. The prediction performance is also analysed when significantly fewer receiver positions are used for the prediction. The experimental results obtained lead to conclude that Kriging can be successfully applied to room acoustics. Energy\based acoustic parameters can be estimated with higher accuracy compared to those related to reverberation and speech intelligibility. Coefficient of determination (R2) is a reliable statistic for assessing the prediction accuracy, for which measured data entropy can also be a good a priori indicator. Furthermore, based on fewer receiver positions, it is demonstrated that accurate predictions of Grel and Ts can be achieved.