999 resultados para Estudios de variación en tiempo real
Resumo:
El sector energético, en España en particular, y de forma similar en los principales países de Europa, cuenta con una significativa sobrecapacidad de generación, debido al rápido y significativo crecimiento de las energías renovables en los últimos diez años y la reducción de la demanda energética, como consecuencia de la crisis económica. Esta situación ha hecho que las centrales térmicas de generación de electricidad, y en concreto los ciclos combinados de gas, operen con un factor de utilización extremadamente bajo, del orden del 10%. Además de la reducción de ingresos, esto supone para las plantas trabajar continuamente fuera del punto de diseño, provocando una significativa pérdida de rendimiento y mayores costes de explotación. En este escenario, cualquier contribución que ayude a mejorar la eficiencia y la condición de los equipos, es positivamente considerada. La gestión de activos está ganando relevancia como un proceso multidisciplinar e integrado, tal y como refleja la reciente publicación de las normas ISO 55000:2014. Como proceso global e integrado, la gestión de activos requiere el manejo de diversos procesos y grandes volúmenes de información, incluso en tiempo real. Para ello es necesario utilizar tecnologías de la información y aplicaciones de software. Esta tesis desarrolla un concepto integrado de gestión de activos (Integrated Plant Management – IPM) aplicado a centrales de ciclo combinado y una metodología para estimar el beneficio aportado por el mismo. Debido a las incertidumbres asociadas a la estimación del beneficio, se ha optado por un análisis probabilístico coste-beneficio. Así mismo, el análisis cuantitativo se ha completado con una validación cualitativa del beneficio aportado por las tecnologías incorporadas al concepto de gestión integrada de activos, mediante una entrevista realizada a expertos del sector de generación de energía. Los resultados del análisis coste-beneficio son positivos, incluso en el desfavorable escenario con un factor de utilización de sólo el 10% y muy prometedores para factores de utilización por encima del 30%. ABSTRACT The energy sector particularly in Spain, and in a similar way in Europe, has a significant overcapacity due to the big growth of the renewable energies in the last ten years, and it is seriously affected by the demand decrease due to the economic crisis. That situation has forced the thermal plants and in particular, the combined cycles to operate with extremely low annual average capacity factors, very close to 10%. Apart from the incomes reduction, working in out-of-design conditions, means getting a worse performance and higher costs than expected. In this scenario, anything that can be done to improve the efficiency and the equipment condition is positively received. Asset Management, as a multidisciplinary and integrated process, is gaining prominence, reflected in the recent publication of the ISO 55000 series in 2014. Dealing Asset Management as a global, integrated process needs to manage several processes and significant volumes of information, also in real time, that requires information technologies and software applications to support it. This thesis proposes an integrated asset management concept (Integrated Plant Management-IPM) applied to combined cycle power plants and develops a methodology to assess the benefit that it can provide. Due to the difficulties in getting deterministic benefit estimation, a statistical approach has been adopted for the cot-benefit analysis. As well, the quantitative analysis has been completed with a qualitative validation of the technologies included in the IPM and their contribution to key power plant challenges by power generation sector experts. The cost- benefit analysis provides positive results even in the negative scenario of annual average capacity factor close to 10% and is promising for capacity factors over 30%.
Resumo:
La presente tesis revisa y analiza algunos aspectos fundamentales relativos al comportamiento de los sensores basados en resonadores piezoeléctricos TSM (Thickness Shear Mode), así como la aplicación de los mismos al estudio y caracterización de dos medios viscoelásticos de gran interés: los fluidos magnetoreológicos y los biofilms microbianos. El funcionamiento de estos sensores está basado en la medida de sus propiedades resonantes, las cuales varían al entrar en contacto con el material que se quiere analizar. Se ha realizado un análisis multifrecuencial, trabajando en varios modos de resonancia del transductor, en algunas aplicaciones incluso de forma simultánea (excitación pulsada). Se han revisado fenómenos como la presencia de microcontactos en la superficie del sensor y la resonancia de capas viscoelásticas de espesor finito, que pueden afectar a los sensores de cuarzo de manera contraria a lo que predice la teoría convencional (Sauerbrey y Kanazawa), pudiéndonos llevar a incrementos positivos de la frecuencia de resonancia. Además, se ha estudiado el efecto de una deposición no uniforme sobre el resonador piezoeléctrico. Para ello se han medido deposiciones de poliuretano, modelándose la respuesta del resonador con estas deposiciones mediante FEM. El modelo numérico permite estudiar el comportamiento del resonador al modificar distintas variables geométricas (espesor, superficie, no uniformidad y zona de deposición) de la capa depositada. Se ha demostrado que para espesores de entre un cuarto y media longitud de onda aproximadamente, una capa viscoelástica no uniforme sobre la superficie del sensor, amplifica el incremento positivo del desplazamiento de la frecuencia de resonancia en relación con una capa uniforme. Se ha analizado también el patrón geométrico de la sensibilidad del sensor, siendo también no uniforme sobre su superficie. Se han aplicado sensores TSM para estudiar los cambios viscoelásticos que se producen en varios fluidos magneto-reológicos (FMR) al aplicarles distintos esfuerzos de cizalla controlados por un reómetro. Se ha podido ver que existe una relación directa entre diversos parámetros reológicos obtenidos con el reómetro (fuerza normal, G’, G’’, velocidad de deformación, esfuerzo de cizalla…) y los parámetros acústicos, caracterizándose los FMR tanto en ausencia de campo magnético, como con campo magnético aplicado a distintas intensidades. Se han estudiado las ventajas que aporta esta técnica de medida sobre la técnica basada en un reómetro comercial, destacando que se consigue caracterizar con mayor detalle algunos aspectos relevantes del fluido como son la deposición de partículas (estabilidad del fluido), el proceso de ruptura de las estructuras formadas en los FMR tanto en presencia como en ausencia de campo magnético y la rigidez de los microcontactos que aparecen entre partículas y superficies. También se han utilizado sensores de cuarzo para monitorear en tiempo real la formación de biofilms de Staphylococcus epidermidis y Eschericia coli sobre los propios resonadores de cristal de cuarzo sin ningún tipo de recubrimiento, realizándose ensayos con cepas que presentan distinta capacidad de producir biofilm. Se mostró que, una vez que se ha producido una primera adhesión homogénea de las bacterias al sustrato, podemos considerar el biofilm como una capa semi-infinita, de la cual el sensor de cuarzo refleja las propiedades viscoelásticas de la región inmediatamente contigua al resonador, no siendo sensible a lo que sucede en estratos superiores del biofilm. Los experimentos han permitido caracterizar el módulo de rigidez complejo de los biofilms a varias frecuencias, mostrándose que el parámetro característico que indica la adhesión de un biofilm tanto en el caso de S. epidermidis como de E. coli, es el incremento de G’ (relacionado con la elasticidad o rigidez de la capa), el cual viene ligado a un incremento de la frecuencia de resonancia del sensor. ABSTRACT This thesis reviews and analyzes some key aspects of the behavior of sensors based on piezoelectric resonators TSM (Thickness Shear Mode) and their applications to the study and characterization in two viscoelastic media of great interest: magnetorheological fluids and microbial biofilms. The operation of these sensors is based on the analysis of their resonant properties that vary in contact with the material to be analyzed. We have made a multi-frequency analysis, working in several modes of resonance of the transducer, in some applications even simultaneously (by impulse excitation). We reviewed some phenomena as the presence of micro-contacts on the sensor surface and the resonance of viscoelastic layers of finite thickness, which can affect quartz sensors contrary to the conventional theory predictions (Sauerbrey and Kanazawa), leading to positive resonant frequency shifts. In addition, we studied the effect of non-uniform deposition on the piezoelectric resonator. Polyurethane stools have been measured, being the resonator response to these depositions modeled by FEM. The numerical model allows studying the behavior of the resonator when different geometric variables (thickness, surface non-uniformity and deposition zone) of the deposited layer are modified. It has been shown that for thicknesses between a quarter and a half of a wavelength approximately, non-uniform deposits on the sensor surface amplify the positive increase of the resonance frequency displacement compared to a uniform layer. The geometric pattern of the sensor sensitivity was also analyzed, being also non-uniform over its surface. TSM sensors have been applied to study the viscoelastic changes occurring in various magneto-rheological fluids (FMR) when subjected to different controlled shear stresses driven by a rheometer. It has been seen that there is a direct relationship between various rheological parameters obtained with the rheometer (normal force, G', G'', stress, shear rate ...) and the acoustic parameters, being the FMR characterized both in the absence of magnetic field, and when the magnetic field was applied at different intensities. We have studied the advantages of this technique over the characterization methods based on commercial rheometers, noting that TSM sensors are more sensitive to some relevant aspects of the fluid as the deposition of particles (fluid stability), the breaking process of the structures formed in the FMR both in the presence and absence of magnetic field, and the rigidity of the micro-contacts appearing between particles and surfaces. TSM sensors have also been used to monitor in real time the formation of biofilms of Staphylococcus epidermidis and Escherichia coli on the quartz crystal resonators themselves without any coating, performing tests with strains having different ability to produce biofilm. It was shown that, once a first homogeneous adhesion of bacteria was produced on the substrate, the biofilm can be considered as a semi-infinite layer and the quartz sensor reflects only the viscoelastic properties of the region immediately adjacent to the resonator, not being sensitive to what is happening in upper layers of the biofilm. The experiments allow the evaluation of the biofilm complex stiffness module at various frequencies, showing that the characteristic parameter that indicates the adhesion of a biofilm for the case of both S. epidermidis and E. coli, is an increased G' (related to the elasticity or stiffness of the layer), which is linked to an increase in the resonance frequency of the sensor.
Resumo:
Durante este trabajo fin de grado (TFG), se ha hecho uso del módulo GSR (o módulo Stress) de la empresa RGB Medical Devices, para crear una aplicación Android que recoja la información enviada por dicho módulo a través del Bluetooth del SmartPhone y la muestre en pantalla en tiempo real.
Resumo:
El pasado 10 de diciembre volvimos al concesionario John Deere de Olías del Rey (Toledo). En esta ocasión para ensayar un modelo de la nueva serie 8R, el 824R, en el que comprobamos la facilidad de uso, el confort, y la conectividad global (fabricante, concesionario, operador y dueño de la explotación unidos en tiempo real)
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
Este proyecto consiste en el diseño completo, de una red de distribución de TDT, a nivel local, mediante difusión SFN, Single Frequency Network. Este tipo de difusión, tiene la capacidad de difundir los servicios de televisión en una única frecuencia, cubriendo un área, ya sea local o estatal, aprovechando en las zonas de interferencia los rebotes de la señal y así evitar el uso de una frecuencia distinta por cada centro de emisión, todos los que componen un área de cobertura. Para el diseño de la red, se ha optado por diseñar una red IP, mediante distribución multicast, ya que esta es la tecnología imperante a día de hoy, quedando obsoleta ya, la distribución analógica, ya que consume muchos más recursos y por consiguiente mucho más costosa de implementar. El documento se divide en cuatro capítulos. En el primer capítulo se realizará una introducción teórica a las redes de distribución SFN, centrándose en el cálculo de los retardos, punto fundamental en el diseño de este tipo de redes. Se continuará unas nociones básicas de redes IP y el protocolo multicast, en el que se basa el trasporte de la señal. El capítulo dos, se centra en el diseño de la red, desde los centros de producción, donde se generan los programas a emitir, hasta los diferentes centros de difusión que cubrirán todo el área de cobertura requerida, pasando por el centro de multiplexación, donde se sitúa la cabecera que compondrá el múltiplex a difundir. Se describirán los equipos y el diseño de los distintos centros que conforman la red, centros de producción, multiplexación y difusión. A demás se realizará el cálculo de retardo de la señal, necesario en este tipo de redes. Se continuará con el capítulo tres, donde se describirá la configuración de la red, tanto a nivel de equipamiento, como el diseño y asignación IP de toda la red, separando la red de servicio de la red de gestión para una mayor confiabilidad y eficiencia de la red. Se finalizará con la descripción de la gestión de la red, que mediante diferentes herramientas, proporcionan un monitoreado en tiempo real de todo el sistema, dando la posibilidad de adelantarsey previniendo posibles incidencias que, puedan causar alguna deficiencia en el servicio que se entrega al usuario final. ABSTRACT. This project involves the complete design of a network´s TDT distribution, locally, by broadcast SFN (Single Frequency Network). This type of broadcast, has the ability to broadcast television´s services on a single frequency, covering an area, whether local or state, drawing on the interference zones, signal´s rebounds, to avoid the use of a different frequency each broadcast center, all those who make a coverage area. For the design of the network, has been chosen to design an IP network using multicast distribution, since this is the prevailing technology today, as the analogue distribution, consumes more resources and therefore, much more costly to implement. The document is divided into four chapters. In the first chapter you can find a theoretical introduction to SFN distribution networks, focusing on the calculation of delays, fundamental point, in the design of these networks. A basic understanding of IP networks and the multicast protocol, in which the transport of the signal is based, will continue. Chapter two focuses on the design of the network, from production centers, where the programs are created to broadcast, to different distribution centers covering the entire area of coverage required, through the multiplexing center, where the head is located, which comprise the multiplex. Also, the equipment and design of the various centers in the network, production centers, multiplexing center and distribution centers, are described. Furthermore, the calculation of signal delay, necessary in such networks, is performed. We will continue with the chapter three, where the network configuration will be described, both in termsofequipment, such as design IP mapping of the entire network, separating the service network and management network, for increased the reliability and efficiency of the network. It will be completed with the description of the management of the network, using different tools provide real-time monitoring of the entire system, making it possible, to anticipate and prevent any incidents that might cause a deficiency in the service being delivered to final user.
Resumo:
Las características de Wi-Fi en combinación con el protocolo TCP hacen que se produzca una reducción del caudal resultante, causada por el diseño del propio protocolo TCP, desaprovechando en gran medida la capacidad de la red. El objetivo del proyecto ABA-WIFI era elaborar una solución que permitiera corregir el comportamiento anómalo del protocolo de transporte TCP que sufren las redes de acceso de banda ancha a través de Wi-Fi. Para ello se presentaron una serie de mejoras destinadas a los puntos de acceso Wi-Fi basadas en técnicas de TCP Split y TCP Spoof que solucionan el problema identificado de manera notable. Este trabajo proporciona una herramienta web para probar y medir cuantitativamente en tiempo real el efecto de dichas mejoras sobre las prestaciones de la red para distintas condiciones de la misma, atendiendo a la posición del cliente respecto del punto de acceso, el tipo de tráfico cursado, las condiciones de carga de la red y la situación geográfica.
Resumo:
PMCTrack es una herramienta de código abierto para Linux que permite monitorizar el rendimiento de las aplicaciones haciendo uso de los contadores hardware del procesador. Esta herramienta soporta la captura de métricas como el número de instrucciones por ciclo o la tasa de fallos de cache. El objetivo de este proyecto es portar PMCTrack al sistema operativo Android sobre plataformas que integran procesadores de ARM. Esto conlleva la realización de las siguientes tareas: (1) modificación de la variante del kernel Linux propia de Android para incluir las extensiones requeridas por el módulo del kernel de PMCTrack, (2) adaptación de las herramientas de modo usuario de PMCTrack, y (3) desarrollo de una aplicación Android que permita visualizar en tiempo real las medidas de los contadores recabadas para las distintas aplicaciones que están siendo monitorizadas. Para poner a prueba la adaptación de la herramienta PMCTrack al sistema operativo Android y mostrar la utilidad de nuestras aportaciones, se han llevado a cabo diversos casos de estudio empleando la placa de desarrollo Odroid XU4.
Resumo:
Póster presentado en las X Jornadas de Redes de Investigación en Docencia Universitaria, Alicante, 16-17 junio 2012.
Resumo:
Comunicación presentada en las X Jornadas de Redes de Investigación en Docencia Universitaria, Alicante, 16-17 junio 2012.
Resumo:
Se presenta el sistema de climatización basado en suelo radiante coalimentado por fuentes de energía renovables, que es capaz de proporcionar calor o frío. Se ha modelado una instalación genérica, que ha sido particularizada e integrada en una vivienda-laboratorio de unos 54m2. El sistema está compuesto por placas termo-solares, calentador eléctrico, bomba de calor aire-agua, acumuladores, circuito de suelo radiante y fancoil. El sistema de control está basado en un autómata que integra sensores y actuadores de diversas tecnologías que permiten monitorizar el sistema, visualizar y gestionar la instalación de forma remota y realizar un control minimizando el gasto energético. El sistema de control es reactivo en tiempo real por lo que cada vez que sucede algún cambio en el entorno se desencadenas las acciones oportunas.
Resumo:
En la actualidad, muchos gobiernos están publicando (o tienen la intención de publicar en breve) miles de conjuntos de datos para que personas y organizaciones los puedan utilizar. Como consecuencia, la cantidad de aplicaciones basadas en Open Data está incrementándose. Sin embargo cada gobierno tiene sus propios procedimientos para publicar sus datos, y esto causa una variedad de formatos dado que no existe un estándar internacional para especificar los formatos de estos datos. El objetivo principal de este trabajo es un análisis comparativo de datos ambientales en bases de datos abiertas (Open Data) pertenecientes a distintos gobiernos. Debido a esta variedad de formatos, debemos construir un proceso de integración de datos que sea capaz de unir todos los tipos de formatos. El trabajo implica un pre-procesado, limpieza e integración de las diferentes fuentes de datos. Existen muchas aplicaciones desarrolladas para dar soporte en el proceso de integración por ejemplo Data Tamer, Data Wrangler como se explica en este documento. El problema con estas aplicaciones es que necesitan la interacción del usuario como parte fundamental del proceso de integración. En este trabajo tratamos de evitar la supervisión humana aprovechando las similitudes de los datasets procedentes de igual área que en nuestro caso se aplica al área de medioambiente. De esta forma los procesos pueden ser automatizados con una programación adecuada. Para conseguirlo, la idea principal de este trabajo es construir procesos ad hoc adaptados a las fuentes de cada gobierno para conseguir una integración automática. Concretamente este trabajo se enfoca en datos ambientales como lo son la temperatura, consumo de energía, calidad de aire, radiación solar, velocidad del viento, etc. Desde hace dos años el gobierno de Madrid está publicando sus datos relativos a indicadores ambientales en tiempo real. Del mismo modo, otros gobiernos han publicado conjuntos de datos Open Data relativos al medio ambiente (como Andalucía o Bilbao), pero todos estos datos tienen diferentes formatos. En este trabajo se presenta una solución capaz de integrar todas ellos que además permite al usuario visualizar y hacer análisis sobre los datos en tiempo real. Una vez que el proceso de integración está realizado, todos los datos de cada gobierno poseen el mismo formato y se pueden lanzar procesos de análisis de una manera más computacional. Este trabajo tiene tres partes fundamentales: 1. Estudio de los entornos Open Data y la literatura al respecto; 2. Desarrollo de un proceso de integración y 3. Desarrollo de una Interface Gráfica y Analítica. Aunque en una primera fase se implementaron los procesos de integración mediante Java y Oracle y la Interface Gráfica con Java (jsp), en una fase posterior se realizó toda la implementación con lenguaje R y la interface gráfica mediante sus librerías, principalmente con Shiny. El resultado es una aplicación que provee de un conjunto de Datos Ambientales Integrados en Tiempo Real respecto a dos gobiernos muy diferentes en España, disponible para cualquier desarrollador que desee construir sus propias aplicaciones.
Resumo:
A lo largo de la historia, nuestro planeta ha atravesado numerosas y diferentes etapas. Sin embargo, desde finales del cretácico no se vivía un cambio tan rápido como el actual. Y a la cabeza del cambio, nosotros, el ser humano. De igual manera que somos la causa, debemos ser también la solución, y el análisis a gran escala de la tierra está siendo un punto de interés para la comunidad científica en los últimos años. Prueba de ello es que, cada vez con más frecuencia, se lanzan gran cantidad de satélites cuya finalidad es el análisis, mediante fotografías, de la superficie terrestre. Una de las técnicas más versátiles para este análisis es la toma de imágenes hiperespectrales, donde no solo se captura el espectro visible, sino numerosas longitudes de onda. Suponen, eso sí un reto tecnológico, pues los sensores consumen más energía y las imágenes más memoria, ambos recursos escasos en el espacio. Dado que el análisis se hace en tierra firme, es importante una transmisión de datos eficaz y rápida. Por ello creemos que la compresión en tiempo real mediante FPGAs es la solución idónea, combinando un bajo consumo con una alta tasa de compresión, posibilitando el análisis ininterrumpido del astro en el que vivimos. En este trabajo de fin de grado se ha realizado una implementación sobre FPGA, utilizando VHDL, del estándar CCSDS 123. Este está diseñado para la compresión sin pérdida de imágenes hiperespectrales, y permite una amplia gama de configuraciones para adaptarse de manera óptima a cualquier tipo de imagen. Se ha comprobado exitosamente la validez de la implementación comparando los resultados obtenidos con otras implementaciones (software) existentes. Las principales ventajas que presentamos aquí es que se posibilita la compresión en tiempo real, obteniendo además un rendimiento energético muy prometedor. Estos resultados mejoran notablemente los de una implementación software del algoritmo, y permitirán la compresión de las imágenes a bordo de los satélites que las toman.
Resumo:
Esta investigación posee un carácter hipotético. Se hace manifiesto desde el principio el esfuerzo por evitar una línea de exposición categórica. Más bien se tiende a la apertura, a la flexibilidad y a la inclusión, haciendo hincapié en la importancia de la variabilidad, no sólo como materia perteneciente a la ontología de las computadoras, sino como creciente tendencia cultural. - Objetivos y resultados El propósito de este trabajo es el de establecer un análisis comparativo entre dos mundos no cotejados hasta el momento: el del paisaje diseñado y el de las tecnologías. En concreto las de la imagen audiovisual dentro del ámbito del projection mapping, un método de proyección que proporciona una realidad “mixta,” consistente en la convivencia en tiempo real de un entorno virtual y uno físico. El objetivo es comprobar si existen conceptos y características fundamentales del paisaje diseñado análogos a los conceptos y las características esenciales de la imagen secuenciada; y en los casos en los que así sea, identificarlos y relacionarlos, utilizando como hilo conductor la idea de palimpsesto. Entendemos un palimpsesto como un mecanismo en el que se da una sucesión de etapas o estados, ya sea en cuanto a su evolución en el tiempo, a su movimiento en el espacio o a cualquier otro tipo de acción secuenciada, física, ideológica o ambas combinadas; en el que todos estos pasos tienen cabida y en el que cada pisada no existiría sin su predecesora. Proponemos la hipótesis de que paisaje y tecnología comparten cualidades, procesos, usos y mecanismos, elementos que las relacionan en su devenir histórico y social...
Resumo:
[ES]Este proyecto trata de desarrollar una aplicación web en Ruby on Rails, donde el usuario pueda visualizar en “tiempo real” la ubicación de su animal haciendo uso de su identificador con GPS (microchip con GPS), si existiera tal dispositivo, o un dispositivo de geolocalización GPS incrustado en el collar del perro, para hacer un seguimiento del mismo cuando otra persona que ha sido contratada lo pasea. Al no disponer de microchips o collares con GPS, así como los respectivos animales para hacer el estudio y, por tanto, su posterior seguimiento, se realizará una simulación del mismo, de ahí que el tiempo real esté puesto entre comillas.