13 resultados para Socket.io

em Universidad Politécnica de Madrid


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La iniciativa FIWARE ofrece un conjunto de APIs potentes que proporcionan la base para una innovación rápida y eficiente en el Internet del Futuro. Estas APIs son clave en el desarrollo de aplicaciones que usan tecnologías muy recientes e innovadoras, como el Internet de las cosas o la Gestión de Identidad en módulos de seguridad. Este documento presenta el desarrollo de una aplicación web de FIWARE usando componentes virtualizados en máquinas virtuales. La aplicación web está basada en “la fábrica de chocolate de Willy Wonka” como una implementación metafórica de una aplicación de seguridad e IoT en un entorno industrial. El componente principal es un servidor web en node.js que conecta con varios componentes de FIWARE, conocidos como “Generic Enablers”. La implementación está compuesta por dos módulos principales: el módulo de IoT y el módulo de seguridad. El módulo de IoT gestiona los sensores instalados por Willy Wonka en las salas de fábrica para monitorizar varios parámetros como, por ejemplo, la temperatura, la presión o la ocupación. El módulo de IoT crea y recibe información de contexto de los sensores virtuales. Esta información de contexto es gestionada y almacenada en un componente de FIWARE conocido como Context Broker. El Context Broker está basado en mecanismos de subscripciones que postean los datos de los sensores en la aplicación, en tiempo real y cuando estos cambian. La conexión con el cliente se produce mediante Web Sockets (socket.io). El módulo de seguridad gestiona las cuentas y la información de los usuarios, les autentica en la aplicación usando una cuenta de FIWARE y comprueba la autorización para acceder a distintos recursos. Distintos roles son creados con distintos permisos asignados. Por ejemplo, Willy Wonka puede tener acceso a todos los recursos, mientras que un Oompa Loopa encargado de la sala del chocolate solo deberías de tener acceso a los recursos de su sala. Este módulo está compuesto por tres componentes: el Gestor de Identidades, el PEP Proxy y el PDP AuthZForce. El gestor de identidades almacena las cuentas de FIWARE de los usuarios y permite la autenticación Single Sing On usando el protocolo OAuth2. Tras logearse, los usuarios autenticados reciben un token de autenticación que es usado después por el AuthZForce para comprobar el rol y permiso asociado del usuario. El PEP Proxy actúa como un servidor proxy que redirige las peticiones permitidas y bloquea las no autorizadas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El objetivo de este proyecto es la continuación del desarrollo de una plataforma web bajo el sistema WebRTC que, integrada en el ámbito académico, proporcionase un servicio en tiempo real de compartición de información tanto a alumnos como a profesores. Entre esta información posible a compartir, además de mensajes y la propia videollamada que resulta la base de la plataforma, se pueden compartir explicaciones en una pizarra, videos o presentaciones que ayuden en la interacción entre los integrantes de la plataforma. Mientras que la base de la plataforma se encontraba implementada, el sistema no resultaba útil y funcional en dicho estado debido a la multitud de errores y fallos que ocurrían durante su funcionamiento en el sistema de intercambio de información entre los módulos que componen el sistema. Por ello, el objetivo de este trabajo es introducirse en esas capas, rediseñar dicho sistema de intercambio de información entre los diferentes actores que forman parte de la plataforma e implementarlo, logrando así un producto usable para un potencial cliente a partir de este punto y abierto a futuras mejores partiendo de este estado. Para ello además de la tecnología WebRTC, se han incluido funcionalidades con Javascript, Node.JS, jQuery o Socket.IO entre otras APIs. A partir de este sistema y de estas tecnologías, un profesor puede crear un aula virtual, seleccionar los derechos que les proporciona a sus alumnos en la misma y realizar una clase por dicha plataforma sin apenas diferencia a una presencial. Pero no se limita sólo a eso, sino que pueden realizarse tutorías, debates o reuniones entre compañeros de departamento para preparar asignaturas o exámenes. Lo cual genera multitud de posibilidades, no sólo en el ámbito académico, sino fuera de él, para reuniones en empresas, cursos online… En definitiva, con la base de funcionalidades ya implementada previamente y la adición del objetivo de este trabajo de fin de grado que finaliza esas funcionalidades y rediseña e implementa el sistema de intercambio de información para que la plataforma sea 100% usable sin los problemas que el usuario se podía encontrar anteriormente, se obtiene una plataforma con un gran potencial académico con la que los usuarios, bajo la base de la videollamada, podrán encontrar un ambiente de compartición de información como si estuviesen en el mismo lugar físico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha desarrollado un método de calibración de interrogadores de redes de Bragg en fibra óptica que compara la respuesta del equipo de prueba con un simulador de red de Bragg compuesto por un filtro sintonizable unido a un espejo de fibra óptica. La longitud de onda simulada obtenida se mide con un interferómetro de referencia calibrado en el Instituto de Óptica del Consejo Superior de Investigaciones Científicas (IO?CSIC). Este método de calibración ha sido aplicado para calibrar varios tipos de interrogadores de redes de Bragg: estáticos y dinámicos. La incertidumbre en la calibración absoluta de los interrogadores es de ±88 pm, y es debida principalmente a la anchura espectral del filtro que simula la red de Bragg. Sin embrago, en calibraciones relativas la incertidumbre baja a ±3 pm, dominado por la incertidumbre en la calibración del interferómetro de referencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Use of electrodynamic bare tethers in exploring the Jovian system by tapping its rotational energy for power and propulsion is studied. The position of perijove and apojove in elliptical orbits, relative to the synchronous orbit at 2.24 times Jupiter’s radius, is exploited to conveniently make the induced Lorentz force to be drag or thrust, while generating power, and navigating the system. Capture and evolution to a low elliptical orbit near Jupiter, and capture into low circular orbits at moons Io and Europa are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tethered spacecraft missions to the Jovian system suit the use of electrodynamic tethers because: 1) magnetic stresses are 100 times greater than at the Earth; 2) the stationary orbit is one-third the relative distance for Earth; and 3) moon Io is a nearby giant plasma source. The (bare) tether is a reinforced aluminum foil with tens of kilometer length L and a fraction of millimeter thickness h, which collects electrons as an efficient Langmuir probe and can tap Jupiter’s rotational energy for both propulsion and power. In this paper, the critical capture operation is explicitly formulated in terms of orbit geometry and established magnetic and thermal plasma models. The design parameters L and h and capture perijove radius rp face opposite criteria independent of tape width. Efficient capture requires a low rp and a high L 3/2/h ratio. However, combined bounds on tether bowing and tether tensile stress, arising from a spin made necessary by the low Jovian gravity gradient, require a high rp and a low L 5/2/h ratio. Bounds on tether temperature again require a high rp and a low L 3/8/(tether emissivity)1/4 ratio. Optimal design values are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An electrodynamic bare-tether mission to Jupiter,following the capture of a spacecraft (SC) into an equatorial highly elliptical orbit with perijove at about 1.3 times the Jovian radius, is discussed. Repeated applications of the propellantless Lorentz drag on a spinning tether, at the perijove vicinity, can progressively lower the apojove at constant perijove, for a tour of Galilean moons. Electrical energy is generated and stored as the SC moves from an orbit at 1 : 1 resonance with a moon, down to resonance with the next moon; switching tether current off, stored power is then used as the SC makes a number of flybys of each moon. Radiation dose is calculated throughout the mission,during capture, flybys and moves between moons. The tour mission is limited by both power needs and accumulated dose. The three-stage apojove lowering down to Ganymede, Io, and Europa resonances would total less than 14 weeks, while 4 Ganymede, 20 Europa, and 16 Io flybys would add up to 18 weeks, with the entire mission taking just over seven months and the accumulated radiation dose keeping under 3 Mrad (Si) at 10-mm Al shield thickness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Three separate scenarios of an electrodynamic tether mission at Jupiter following capture of a spacecraft (SC) into an equatorial, highly elliptical orbit around the planet, with perijove at about 1.5 times the Jovian radius, are discussed. Repeated application of Lorentz drag on the spinning tether, at the perijove vicinity, can progressively lower the apojove. One mission involves the tethered-SC rapidly and frequently visiting Galilean moons; elliptical orbits with apojove down at the Ganymede, Europa, and Io orbits are in 2:5, 4:9, and 1:2 resonances with the respective moons. About 20 slow flybys of Io would take place before the accumulated radiation dose exceeds 3 Mrad (Si) at 10 mm Al shield thickness, with a total duration of 5 months after capture (4 months for lowering the apojove to Io and one month for the flybys). The respective number of flybys for Ganymede would be 10 with a total duration of about 9 months. An alternative mission would have the SC acquire a low circular orbit around Jupiter, below the radiation belts, and manoeuvre to get an optimal altitude, with no major radiation effects, in less than 5 months after capture. In a third mission, repeated thrusting at the apojove vicinity, once down at the Io torus, would raise the perijove itself to the torus to acquire a low circular orbit around Io in about 4 months, for a total of 8 months after capture; this corresponds, however, to over 100 apojove passes with an accumulated dose, of about 8.5 Mrad (Si), that poses a critical issue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A significant number of short-to-mid height RC buildings with wide beams have been constructed in areas of moderate seismicity of Spain, mainly for housing and administrative use. The buildings have a framed structure with one-way slabs; the wide beams constitute the distinctive characteristic, their depth being equal to that of the rest of the slab, thus providing a flat lower surface, convenient for construction and the layout of facilities. Seismic behavior in the direction of the wide beams appears to be deficient because of: (i) low lateral strength, mainly because of the small effective depth of the beams, (ii) inherent low ductility of the wide beams, generated by high amount of reinforcement, (iii) the big strut compressive forces developed inside the column-beam connections due to the low height of the beams, and (iv) the fact that the wide beams are wider than the columns, meaning that the contribution of the outer zones to the resistance of the beam-column joints is unreliable because there is no torsion reinforcement. In the orthogonal direction, the behavior is worse since the only members of the slabs that contribute to the lateral resistance are the joists and the façade beams. Moreover, these buildings were designed with codes that did not include ductility requirements and required only a low lateral resistance; indeed, in many cases, seismic action was not considered at all. Consequently, the seismic capacity of these structures is not reliable. The objective of this research is to assess numerically this capability, whereas further research will aim to propose retrofit strategies. The research approach consists of: (i) selecting a number of 3-story and 6-story buildings that represent the vast majority of the existing ones and (ii) evaluating their vulnerability through three types of analyses, namely: code-type, push-over and nonlinear dynamic analysis. Given the low lateral resistance of the main frames, the cooperation of the masonry infill walls is accounted for; for each representative building, three wall densities are considered. The results of the analyses show that the buildings in question exhibit inadequate seismic behavior in most of the examined situations. In general, the relative performance is less deficient for Target Drift CP (Collapse Prevention) than for IO (Immediate Occupancy). Since these buildings are selected to be representative of the vast majority of buildings with wide beams that were constructed in Spain without accounting for any seismic consideration, our conclusions can be extrapolated to a broader scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the framework of the ITER Control Breakdown Structure (CBS), Plant System Instrumentation & Control (I&C) defines the hardware and software required to control one or more plant systems [1]. For diagnostics, most of the complex Plant System I&C are to be delivered by ITER Domestic Agencies (DAs). As an example for the DAs, ITER Organization (IO) has developed several use cases for diagnostics Plant System I&C that fully comply with guidelines presented in the Plant Control Design Handbook (PCDH) [2]. One such use case is for neutron diagnostics, specifically the Fission Chamber (FC), which is responsible for delivering time-resolved measurements of neutron source strength and fusion power to aid in assessing the functional performance of ITER [3]. ITER will deploy four Fission Chamber units, each consisting of three individual FC detectors. Two of these detectors contain Uranium 235 for Neutron detection, while a third "dummy" detector will provide gamma and noise detection. The neutron flux from each MFC is measured by the three methods: . Counting Mode: measures the number of individual pulses and their location in the record. Pulse parameters (threshold and width) are user configurable. . Campbelling Mode (Mean Square Voltage): measures the RMS deviation in signal amplitude from its average value. .Current Mode: integrates the signal amplitude over the measurement period

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El retiro del emperador Carlos V al monasterio de San Jerónimo de Yuste, situado en un apartado lugar de la geografía extremeña, es uno de los episodios más conocidos e insólitos de su azarosa vida. Los historiadores han estudiado, analizado y descrito de un modo exhaustivo los dieciocho meses que el emperador vivió en Yuste, desde febrero de 1557 hasta su muerte acaecida en septiembre de 1558. Muchos de ellos han dedicado algún capítulo de sus libros a la descripción del modesto aposento que en él se mandó construir y que describió con estas palabras: " ... que al lado de Yuste se le fabricara una cassa suficiente para poder vivir en clase de persona particular ... ". El edificio es también conocido por haber sido descrito en muchas ocasiones como el germen de El Escorial. Sin embargo es muy escasa la información arquitectónica, especializada, de que disponemos sobre este interesante edificio, ejemplo de la arquitectura civil del siglo XVI español. Habiendo tenido la oportunidad de trabajar como arquitecto por espacio de más de una década en el monasterio de Yuste descubrimos esta laguna documental, a la vez que sentimos el influjo y poderoso atractivo que este edificio ejerce. Es por ello que nos decidimos a emprender este trabajo con el propósito de llenar este vacío. En el proceso de recopilación de información sobre el monumento encontramos un importante manuscrito titulado "Historia de Yuste", en el que se describe pormenorizadamente la historia del monasterio. Este documento, en paradero desconocido desde la desamortización, se encuentra inédito. Junto con bloques, también inéditos, de información fotográfica, constituye la fuente original en la que se basa gran parte de nuestro trabajo. Describir y analizar este edificio, a partir de la documentación que conocemos, será, por lo tanto, el propósito principal de esta tesis. Hay otro objetivo, más personai y subjetivo, consistente en intentar explicar por qué este edificio cautiva y encanta a todo el que io visita y conoce.