88 resultados para Sistemas de control por retroalimentación

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto nace de la necesidad de automatizar el estudio de sistemas hidráulicos y de control de roturas en presas. Para realizar el estudio de sistemas hidráulicos se usarán un número indeterminado de sensores de nivel, presión y caudal. El número de sensores que se pueden utilizar viene determinado por el material disponible. Estos sensores se conectarán a unas tarjetas de National Instruments modelo NI 9208 y éstas a su vez a un chasis modelo CompactDAQ NI-9174 con cuatro ranuras. Conectando este chasis al ordenador podremos obtener los datos provenientes de los sensores. También se podrá controlar una válvula para determinar la cantidad de agua que fluye en nuestro experimento. Está válvula está conectada a una tarjeta NI-9264 que se conectará al chasis en su última posición Para detectar y estudiar posibles roturas en presas se dispone de un motor y un láser con los cuales se puede barrer la superficie de una presa y obtener una imagen en tres dimensiones de la misma procesando los datos provenientes del laser. Para recoger los datos de los sensores y controlar una válvula se ha desarrollado una aplicación utilizando LabVIEW, un programa creado por National Instruments. Para poder controlar el motor y el láser se parte de una aplicación que ya estaba realizada en LabVIEW. El objetivo ha sido detectar y corregir una serie de errores en la misma. Dentro del proyecto, además de la explicación detallada de la aplicación para los sensores y la válvula, y las pruebas realizadas para detectar y corregir los errores de la aplicación del láser y el motor, existe: una breve introducción a la programación en LabVIEW, la descripción de los pasos realizados para el conexionado de los sensores con las tarjetas, los manuales de usuario de las aplicaciones y la descripción de los equipos utilizados. This project stars from the need to automate the study of hydraulic systems and control dam breaks. For the study of hydraulic systems it will be used an unspecified number of level, pressure and flow sensors. The number of sensors that can be used is determined by the available material. These sensors are connected to a NI 9208 National Instruments target and these cards to a NI-9174 CompactDAQ chassis with four slots. Connecting the chassis to a computer we will obtain data from the sensors. We also can control a valve to determine the amount of water flowing in our experiment. This valve is connected to a NI-9264 card and this card to the last position of the chassis. To detect and study dams breakage it used a motor and a laser. With these two devices we can scan the surface of a dam and obtain a three-dimensional image processing data from the laser. To collect data from the sensors and control the valve it has developed an application using LabVIEW, a program created by National Instruments. To control the motor and the laser it is used an application that was already created using LabVIEW. The aim of this part has been detect and correct a number of errors in this application. Within the project, in addition to the detailed explanation of the application for sensors and valve, and tests to detect and correct errors in the application of lasers and the motor, there is: a brief introduction to programming in LabVIEW, the description of the steps taken for connecting the sensors with cards, user manuals and application description of the equipment used.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La entrada en vigor del R.D. 635 del año 2006, sobre los requisitos mínimos de seguridad en túneles de carreteras establece la necesidad de profundizar en las características y prestaciones a exigir para los sistemas informáticos de control de ventilación en túneles tanto para las situaciones de servicio como de incendio. En general, este tipo de sistemas tienen como objetivo fundamental lograr la reducción de los tiempos de respuesta por parte de los sistemas y del personal de explotación, a la vez que aportar la mayor flexibilidad posible en las pautas de actuación manuales y automáticas. Sin embargo, las aplicaciones informáticas a implementar precisan tener en cuenta las diferencias en las tipologías de los sistemas de ventilación y las condiciones distintas que se pueden dar en la explotación del túnel, como por ejemplo, el tráfico denso o fluido en el interior del túnel en caso de incidente. Esto requiere estrategias de ventilación complejas que en algunos casos pueden ser predefinidas en el sistema de control. Con el objetivo de optimizar el funcionamiento de la ventilación es posible desarrollar algoritmos de control que establecen actuaciones sobre los distintos equipos en función de las condiciones previas al inicio del incidente pero también la evolución de las mismas durante el mismo. En consecuencia, el presente artículo intenta reflejar las tendencias y alternativas que puedan contemplarse para el control de los humos en caso de túneles planteados desde un punto de vista tanto teórico, en función de las recomendaciones internacionales, como práctico al incorporar resultados de medida in situ obtenidas en la verificación de sistemas de este tipo implementados sistemas de control de túneles en explotación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La finalidad de este proyecto es la de estudiar las alternativas empleadas hoy en día para asegurar y garantizar el correcto acceso a infraestructuras sensibles, evitando el uso de las clásicas passwords por los problemas que acarrean, detallados en el apartado 2.2. Autenticación mediante passwords y problemas en su uso. Se analizarán y estudiarán algunas de las soluciones más factibles para garantizar un correcto acceso a sistemas sensibles, destacando las ventajas y problemas de cada una de las soluciones. Con esto se quiere decir que no se tratará de solucionar los problemas de seguridad y gestión de acceso a la hora de acceder a las diversas plataformas web, como puedan ser redes sociales o sistemas de pago y/o transacciones. El estudio se va a limitar al caso dado en el centro de supercomputación CeSViMa, pudiéndose extender a cualquier infraestructura física, siempre y cuando se tenga en cuenta que para el acceso a la infraestructura se pueden necesitar medios o periféricos hardware que, obviamente, serán controlados por la empresa o sistema alojado en dicha infraestructura. Tras dicho estudio, se procederá al diseño de la que se considere mejor opción en una instalación real. El estudio del sistema se llevará a cabo, tal y como se ha mencionado, en el centro de supercomputación CeSViMa ubicado en el Campus Montegancedo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de la presentación es dar a conocer los últimos trabajos del Grupo de Investigación sobre últimos trabajos del Grupo de Investigación sobre Control Borroso. • Obtención de modelos precisos de sistemas no lineales basados en sistemas borrosos – Mamdani – Takagi-Sugeno – Linealización • Generalización del método propuesto por T-S • Identificación iterativa basada en el Filtro de Kalman • Sistemas de control basados en el modelo TS obtenido – LQR

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La gestión del tráfico aéreo (Air Traffic Management, ATM) está experimentando un cambio de paradigma hacia las denominadas operaciones basadas trayectoria. Bajo dicho paradigma se modifica el papel de los controladores de tráfico aéreo desde una operativa basada su intervención táctica continuada hacia una labor de supervisión a más largo plazo. Esto se apoya en la creciente confianza en las soluciones aportadas por las herramientas automatizadas de soporte a la decisión más modernas. Para dar soporte a este concepto, se precisa una importante inversión para el desarrollo, junto con la adquisición de nuevos equipos en tierra y embarcados, que permitan la sincronización precisa de la visión de la trayectoria, basada en el intercambio de información entre ambos actores. Durante los últimos 30 a 40 años las aerolíneas han generado uno de los menores retornos de la inversión de entre todas las industrias. Sin beneficios tangibles, la industria aérea tiene dificultades para atraer el capital requerido para su modernización, lo que retrasa la implantación de dichas mejoras. Esta tesis tiene como objetivo responder a la pregunta de si las capacidades actualmente instaladas en las aeronaves comerciales se pueden aplicar para lograr la sincronización de la trayectoria con el nivel de calidad requerido. Además, se analiza en ella si, conjuntamente con mejoras en las herramientas de predicción trayectorias instaladas en tierra en para facilitar la gestión de las arribadas, dichas capacidades permiten obtener los beneficios esperados en el marco de las operaciones basadas en trayectoria. Esto podría proporcionar un incentivo para futuras actualizaciones de la aviónica que podrían llevar a mejoras adicionales. El concepto operacional propuesto en esta tesis tiene como objetivo permitir que los aviones sean pilotados de una manera consistente con las técnicas actuales de vuelo optimizado. Se permite a las aeronaves que desciendan en el denominado “modo de ángulo de descenso gestionado” (path-managed mode), que es el preferido por la mayoría de las compañías aéreas, debido a que conlleva un reducido consumo de combustible. El problema de este modo es que en él no se controla de forma activa el tiempo de llegada al punto de interés. En nuestro concepto operacional, la incertidumbre temporal se gestiona en mediante de la medición del tiempo en puntos estratégicamente escogidos a lo largo de la trayectoria de la aeronave, y permitiendo la modificación por el control de tierra de la velocidad de la aeronave. Aunque la base del concepto es la gestión de las ordenes de velocidad que se proporcionan al piloto, para ser capaces de operar con los niveles de equipamiento típicos actualmente, dicho concepto también constituye un marco en el que la aviónica más avanzada (por ejemplo, que permita el control por el FMS del tiempo de llegada) puede integrarse de forma natural, una vez que esta tecnología este instalada. Además de gestionar la incertidumbre temporal a través de la medición en múltiples puntos, se intenta reducir dicha incertidumbre al mínimo mediante la mejora de las herramienta de predicción de la trayectoria en tierra. En esta tesis se presenta una novedosa descomposición del proceso de predicción de trayectorias en dos etapas. Dicha descomposición permite integrar adecuadamente los datos de la trayectoria de referencia calculada por el Flight Management System (FMS), disponibles usando Futuro Sistema de Navegación Aérea (FANS), en el sistema de predicción de trayectorias en tierra. FANS es un equipo presente en los aviones comerciales de fuselaje ancho actualmente en la producción, e incluso algunos aviones de fuselaje estrecho pueden tener instalada avionica FANS. Además de informar automáticamente de la posición de la aeronave, FANS permite proporcionar (parte de) la trayectoria de referencia en poder de los FMS, pero la explotación de esta capacidad para la mejora de la predicción de trayectorias no se ha estudiado en profundidad en el pasado. La predicción en dos etapas proporciona una solución adecuada al problema de sincronización de trayectorias aire-tierra dado que permite la sincronización de las dimensiones controladas por el sistema de guiado utilizando la información de la trayectoria de referencia proporcionada mediante FANS, y también facilita la mejora en la predicción de las dimensiones abiertas restantes usado un modelo del guiado que explota los modelos meteorológicos mejorados disponibles en tierra. Este proceso de predicción de la trayectoria de dos etapas se aplicó a una muestra de 438 vuelos reales que realizaron un descenso continuo (sin intervención del controlador) con destino Melbourne. Dichos vuelos son de aeronaves del modelo Boeing 737-800, si bien la metodología descrita es extrapolable a otros tipos de aeronave. El método propuesto de predicción de trayectorias permite una mejora en la desviación estándar del error de la estimación del tiempo de llegada al punto de interés, que es un 30% menor que la que obtiene el FMS. Dicha trayectoria prevista mejorada se puede utilizar para establecer la secuencia de arribadas y para la asignación de las franjas horarias para cada aterrizaje (slots). Sobre la base del slot asignado, se determina un perfil de velocidades que permita cumplir con dicho slot con un impacto mínimo en la eficiencia del vuelo. En la tesis se propone un nuevo algoritmo que determina las velocidades requeridas sin necesidad de un proceso iterativo de búsqueda sobre el sistema de predicción de trayectorias. El algoritmo se basa en una parametrización inteligente del proceso de predicción de la trayectoria, que permite relacionar el tiempo estimado de llegada con una función polinómica. Resolviendo dicho polinomio para el tiempo de llegada deseado, se obtiene de forma natural el perfil de velocidades optimo para cumplir con dicho tiempo de llegada sin comprometer la eficiencia. El diseño de los sistemas de gestión de arribadas propuesto en esta tesis aprovecha la aviónica y los sistemas de comunicación instalados de un modo mucho más eficiente, proporcionando valor añadido para la industria. Por tanto, la solución es compatible con la transición hacia los sistemas de aviónica avanzados que están desarrollándose actualmente. Los beneficios que se obtengan a lo largo de dicha transición son un incentivo para inversiones subsiguientes en la aviónica y en los sistemas de control de tráfico en tierra. ABSTRACT Air traffic management (ATM) is undergoing a paradigm shift towards trajectory based operations where the role of an air traffic controller evolves from that of continuous intervention towards supervision, as decision making is improved based on increased confidence in the solutions provided by advanced automation. To support this concept, significant investment for the development and acquisition of new equipment is required on the ground as well as in the air, to facilitate the high degree of trajectory synchronisation and information exchange required. Over the past 30-40 years the airline industry has generated one of the lowest returns on invested capital among all industries. Without tangible benefits realised, the airline industry may find it difficult to attract the required investment capital and delay acquiring equipment needed to realise the concept of trajectory based operations. In response to these challenges facing the modernisation of ATM, this thesis aims to answer the question whether existing aircraft capabilities can be applied to achieve sufficient trajectory synchronisation and improvements to ground-based trajectory prediction in support of the arrival management process, to realise some of the benefits envisioned under trajectory based operations, and to provide an incentive for further avionics upgrades. The proposed operational concept aims to permit aircraft to operate in a manner consistent with current optimal aircraft operating techniques. It allows aircraft to descend in the fuel efficient path managed mode as preferred by a majority of airlines, with arrival time not actively controlled by the airborne automation. The temporal uncertainty is managed through metering at strategically chosen points along the aircraft’s trajectory with primary use of speed advisories. While the focus is on speed advisories to support all aircraft and different levels of equipage, the concept also constitutes a framework in which advanced avionics as airborne time-of-arrival control can be integrated once this technology is widely available. In addition to managing temporal uncertainty through metering at multiple points, this temporal uncertainty is minimised by improving the supporting trajectory prediction capability. A novel two-stage trajectory prediction process is presented to adequately integrate aircraft trajectory data available through Future Air Navigation Systems (FANS) into the ground-based trajectory predictor. FANS is standard equipment on any wide-body aircraft in production today, and some single-aisle aircraft are easily capable of being fitted with FANS. In addition to automatic position reporting, FANS provides the ability to provide (part of) the reference trajectory held by the aircraft’s Flight Management System (FMS), but this capability has yet been widely overlooked. The two-stage process provides a ‘best of both world’s’ solution to the air-ground synchronisation problem by synchronising with the FMS reference trajectory those dimensions controlled by the guidance mode, and improving on the prediction of the remaining open dimensions by exploiting the high resolution meteorological forecast available to a ground-based system. The two-stage trajectory prediction process was applied to a sample of 438 FANS-equipped Boeing 737-800 flights into Melbourne conducting a continuous descent free from ATC intervention, and can be extrapolated to other types of aircraft. Trajectories predicted through the two-stage approach provided estimated time of arrivals with a 30% reduction in standard deviation of the error compared to estimated time of arrival calculated by the FMS. This improved predicted trajectory can subsequently be used to set the sequence and allocate landing slots. Based on the allocated landing slot, the proposed system calculates a speed schedule for the aircraft to meet this landing slot at minimal flight efficiency impact. A novel algorithm is presented that determines this speed schedule without requiring an iterative process in which multiple calls to a trajectory predictor need to be made. The algorithm is based on parameterisation of the trajectory prediction process, allowing the estimate time of arrival to be represented by a polynomial function of the speed schedule, providing an analytical solution to the speed schedule required to meet a set arrival time. The arrival management solution proposed in this thesis leverages the use of existing avionics and communications systems resulting in new value for industry for current investment. The solution therefore supports a transition concept from mixed equipage towards advanced avionics currently under development. Benefits realised under this transition may provide an incentive for ongoing investment in avionics.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los sistemas de tiempo real tienen un papel cada vez más importante en nuestra sociedad. Constituyen un componente fundamental de los sistemas de control, que a su vez forman parte de diversos sistemas de ingeniería básicos en actividades industriales, militares, de comunicaciones, espaciales y médicas. La planificación de recursos es un problema fundamental en la realización de sistemas de tiempo real. Su objetivo es asignar los recursos disponibles a las tareas de forma que éstas cumplan sus restricciones temporales. Durante bastante tiempo, el estado de la técnica en relación con los métodos de planificación ha sido rudimentario. En la actualidad, los métodos de planificación basados en prioridades han alcanzado un nivel de madurez suficiente para su aplicación en entornos industriales. Sin embargo, hay cuestiones abiertas que pueden dificultar su utilización. El objetivo principal de esta tesis es estudiar los métodos de planificación basados en prioridades, detectar las cuestiones abiertas y desarrollar protocolos, directrices y esquemas de realización práctica que faciliten su empleo en sistemas industriales. Una cuestión abierta es la carencia de esquemas de realización de algunos protocolos con núcleos normalizados. El resultado ha sido el desarrollo de esquemas de realización de tareas periódicas y esporádicas de tiempo real, con detección de fallos de temporización, comunicación entre tareas, cambio de modo de ejecución del sistema y tratamiento de fallos mediante grupos de recuperación. Los esquemas se han codificado en Ada 9X y se proporcionan directrices para analizar la planificabilidad de un sistema desarrollado con esta base. Un resultado adicional ha sido la identificación de la funcionalidad mínima necesaria para desarrollar sistemas de tiempo real con las características enumeradas. La capacidad de adaptación a los cambios del entorno es una característica deseable de los sistemas de tiempo real. Si estos cambios no estaban previstos en la fase de diseño o si hay módulos erróneos, es necesario modificar o incluir algunas tareas. La actualización del sistema se suele realizar estáticamente y su instalación se lleva a cabo después de parar su ejecución. Sin embargo, hay sistemas cuyo funcionamiento no se puede detener sin producir daños materiales o económicos. Una alternativa es diseñar el sistema como un conjunto de unidades que se pueden reemplazar, sin interferir con la ejecución de otras unidades. Para tal fin, se ha desarrollado un protocolo de reemplazamiento dinámico para sistemas de tiempo real crítico y se ha comprobado su compatibilidad con los métodos de planificación basados en prioridades. Finalmente se ha desarrollado un esquema de realización práctica del protocolo.---ABSTRACT---Real-time systems are very important now a days. They have become a relevant issue in the design of control systems, which are a basic component of several engineering systems in industrial, telecommunications, military, spatial and medical applications. Resource scheduling is a central issue in the development of real-time systems. Its purpose is to assign the available resources to the tasks, in such a way that their deadlines are met. Historically, hand-crafted techniques were used to develop real-time systems. Recently, the priority-based scheduling methods have reached a sufficient maturity level to be feasible its extensive use in industrial applications. However, there are some open questions that may decrease its potential usefulness. The main goal of this thesis is to study the priority-based scheduling methods, to identify the remaining open questions and to develop protocols, implementation templates and guidelines that will make more feasible its use in industrial applications. One open question is the lack of implementation schemes, based on commercial realtime kernels, of some of the protocols. POSIX and Ada 9X has served to identify the services usually available. A set of implementation templates for periodic and sporadic tasks have been developed with provisión for timing failure detection, intertask coraraunication, change of the execution mode and failure handling based on recovery groups. Those templates have been coded in Ada 9X. A set of guidelines for checking the schedulability of a system based on them are also provided. An additional result of this work is the identification of the minimal functionality required to develop real-time systems based on priority scheduling methods, with the above characteristics. A desirable feature of real-time systems is their capacity to adapt to changes in the environment, that cannot be entirely predicted during the design, or to misbehaving software modules. The traditional maintenance techniques are performed by stopping the whole system, installing the new application and finally resuming the system execution. However this approach cannot be applied to non-stop systems. An alternative is to design the system as a set of software units that can be dynamically replaced within its operative environment. With this goal in mind, a dynamic replacement protocol for hard real-time systems has been defined. Its compatibility with priority-based scheduling methods has been proved. Finally, a execution témplate of the protocol has been implemented.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Es bien conocido por todos que la Primera Revolución Industrial, que tuvo su inicio en la segunda mitad del Siglo XVIII, conllevó un aumento del uso de los recursos energéticos que no se ha detenido para llegar a los niveles de desarrollo tecnológico, industrial y de calidad de vida, de los que se dispone en la actualidad. A simple vista podría intuirse que para disponer de un mayor nivel tecnológico, industrial, de confort, etc. sea necesario un mayor consumo de energía primaria. La actual generación de energía está principalmente basada en el procesamiento de los diversos compuestos del carbono (hidrocarburos, gases y productos derivados del petróleo), que son contaminantes y además, se agotan. Desde hace unas pocas décadas, la humanidad ha sido consciente que es necesario generar energía a partir de fuentes de origen renovable, y que además resulten menos contaminantes. Así, en la actualidad, se ha llegado a un estado de desarrollo avanzado para la explotación de diversas fuentes de energías como la eólica, a la vez que se comienza a mirar con realismo la posibilidad de explotación de diversas energías de origen marino. Se considera que las energías renovables procedentes de los océanos que se encuentran más desarrolladas tecnológicamente hablando, sin tener en cuenta la energía eólica fuera costa (offshore), son la denominada energía undimotriz o de las olas y la energía de las corrientes marinas, no necesariamente en este orden. El trabajo propuesto en esta Tesis se centra en este último recurso energético y, aunque no se dispone todavía de ningún dispositivo en fase de explotación comercial, la concepción, diseño y desarrollo de dispositivos para la extracción de energía de las corrientes, y su evolución, han sido relativamente rápidos e importantes en estos últimos años. Existen ya diferentes dispositivos en fase de pruebas con resultados muy prometedores. Aunque los dispositivos actuales se encuentran limitados a la explotación energética en zonas de poca profundidad, los diferentes estudios del recurso indican la necesidad de explotar corrientes marinas a mayores profundidades, para lo que se están desarrollando actualmente dispositivos, cuya evolución en lo que a sistemas de fondeo se refiere, está siendo muy parecida a la que se ha producido en los parques eólicos fuera costa, similar a su vez, a la evolución llevada a cabo en las plataformas oceánicas para la explotación de recursos petrolíferos (denominados oil & gas) que se extraen de profundidades cada vez mayores. Las soluciones tecnológicas que resulten válidas han de ser también económicamente viables, y en la actualidad se requiere todavía reducir costos en todas las fases de instalación, explotación y mantenimiento de estos dispositivos, sea cual sea su profundidad de operación. Uno de los focos de estudio para abaratar los costes de explotación en general, pasa por abaratar y reducir los costes en las maniobras necesarias de inmersión (de la superficie del mar a la profundidad de operación) y emersión (de la profundidad de operación a la superficie del mar) de estos dispositivos, para llevar a cabo tareas de mantenimiento in situ, en el mar, y sin necesidad de buques especializados ni de su transporte a tierra. En esta Tesis se propone, en primer lugar, un método para evaluar el ciclo de vida de diversos dispositivos de aprovechamiento de las corrientes marinas. Se evidencia que el coste de la energía así generada sigue siendo no plenamente competitivo, por lo que se requiere avanzar en el abaratamiento de costes, principalmente en la instalación y en su mantenimiento. Para ello se propone como novedad principal, introducir sistemas de control en lazo cerrado para realizar maniobras de instalación y mantenimiento de forma automática. También se aporta un modelo dinámico original y muy sencillo para dispositivos bajo estos movimientos de emersión/inmersión, a partir del cual se han desarrollado los algoritmos de control para el propósito mencionado, que no es otro sino automatizar en todo lo posible las maniobras completas. Los algoritmos de control propuestos han sido validados mediante simulación. Se proponen trayectorias de referencia de movimiento suaves (smooth) similares a las utilizadas en robótica. Estos movimientos de cambios de profundidad en lazo cerrado, combinados con secuencias de movimientos en bucle abierto para cuando el dispositivo interacciona en la superficie libre, han dado lugar a nuevas maniobras completas de instalación y mantenimiento que se presentan en esta Tesis, diferentes a las actuales. Finalmente, y como justificación de la viabilidad económica del método novedoso aportado, se ha realizado un estudio comparativo de los costes de la tecnología propuesta, frente a la tecnología actual. Este nuevo sistema de maniobras automáticas implica un ciclo de vida diferente para los dispositivos de aprovechamiento de la energía de las corrientes, ciclo que se cuantifica a partir de un dispositivo base que ha sido modificado y adaptado para la nueva tecnología propuesta, demostrando su viabilidad tanto técnica como económica. ABSTRACT It’s well known that the First Industrial Revolution started in the second half of the eighteenth century, carried the increasing of the use of energy resource which have not been stopped until reach the present technology, industrial evolution and daily life quality. On the surface, it can be known intuitively that a higher consumption of primary energy resource is demanded for benefiting from a higher technological industrial and daily life level. Today, the generation of energy is mainly based in the processing of carbon products (hydrocarbons, gases and petroleum products) which are pollutants, and additionally, are depleted. From a few decades ago, the humanity is aware the energy should be obtained from renewable resources, which besides, should be cleaner. So, at the present, a technical develop has been gained to exploit several energy source, as wind energy, and, at the same time, the extraction of the marine energy starts to seem as a reality. The renewable marine energies considered more advanced and technically developed, without keeping in mind, the offshore wind energy, are the wave energy and the tidal current energy, not necessarily in that order. This Thesis is focused in this last energy resource, and, although, any device is under commercial operation, the concept, design and develop of this type of devices to extract the tidal current energy and their evolution has been comparatively fast and important the last years. There are several devices under test with promising results. Even through the current devices are limited to lower depth areas, the several studies of the tidal energy resource suggest the need to exploit the marine current at greater depths to what is being developed devices, where their evolution in the anchoring system is being very similar to the evolution performed in the offshore wind farms, which is at the same time, similar to the evolution in the oil and gas exploitation which are extracted to greatest depths. Viable technical solutions should be also viable economically and nowadays the cost in all phases of the project (installation, maintenance and operation) should be decreased whatever the operation depth is. One focus of study to lower the operation cost is the cost decreasing of immersion manoeuvring operations (from sea surface to the operation depth) and immersion manoeuvring operations (from operation depth to the sea surface), therefore the maintenance operations can be performed on – site, in the sea, and no specialized vessels are required to transport the devices from the sea to shore. In this dissertation, firstly is proposed a method to evaluate the life cycle of the tidal energy current devices. It is proved the energy generated by these devices is not fully competitive; therefore, the cost falling is mainly an objective in the installation and the maintenance operations. For that, it is proposed as main novelty, the using of closed loop control systems to perform the automatic installation and manoeuvring operations. It is also contributed with an original and simple dynamic model and for controlling the immersion/emersion movements of these devices, from which the control algorithms are developed in order to automate as much as possible the complete manoeuvring. The control algorithms proposed has been validated by simulations. Reference paths with smooth movements, similar which are used in robotics, are suggested. These movements to change the depth using closed loop control, combined with the sequences in open loop movements when the device is in free surface, have been development for a new complete manoeuvring to installation and maintenance operations which are advanced in this Thesis and they are different to the present manoeuvrings. Finally and as justification of the economic viability of this original method, a comparative cost study between the technology proposed and the current technology is performed. This new automatic manoeuvring system involves a different life cycle for the tidal energy current devices, cycle that is quantified from a base device which has been modified and adapted for the new proposed technology, showing the technical and economic viability.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A medida que se incrementa la energía de los aceleradores de partículas o iones pesados como el CERN o GSI, de los reactores de fusión como JET o ITER, u otros experimentos científicos, se va haciendo cada vez más imprescindible el uso de técnicas de manipulación remota para la interacción con el entorno sujeto a la radiación. Hasta ahora la tasa de dosis radioactiva en el CERN podía tomar valores cercanos a algunos mSv para tiempos de enfriamiento de horas, que permitían la intervención humana para tareas de mantenimiento. Durante los primeros ensayos con plasma en JET, se alcanzaban valores cercanos a los 200 μSv después de un tiempo de enfriamiento de 4 meses y ya se hacía extensivo el uso de técnicas de manipulación remota. Hay una clara tendencia al incremento de los niveles de radioactividad en el futuro en este tipo de instalaciones. Un claro ejemplo es ITER, donde se esperan valores de 450 Sv/h en el centro del toroide a los 11 días de enfriamiento o los nuevos niveles energéticos del CERN que harán necesario una apuesta por niveles de mantenimiento remotos. En estas circunstancias se enmarca esta tesis, que estudia un sistema de control bilateral basado en fuerza-posición, tratando de evitar el uso de sensores de fuerza/par, cuyo contenido electrónico los hace especialmente sensitivos en estos ambientes. El contenido de este trabajo se centra en la teleoperación de robots industriales, que debido a su reconocida solvencia y facilidad para ser adaptados a estos entornos, unido al bajo coste y alta disponibilidad, les convierte en una alternativa interesante para tareas de manipulación remota frente a costosas soluciones a medida. En primer lugar se considera el problema cinemático de teleoperación maestro-esclavo de cinemática disimilar y se desarrolla un método general para la solución del problema en el que se incluye el uso de fuerzas asistivas para guiar al operador. A continuación se explican con detalle los experimentos realizados con un robot ABB y que muestran las dificultades encontradas y recomendaciones para solventarlas. Se concluye el estudio cinemático con un método para el encaje de espacios de trabajo entre maestro y esclavo disimilares. Posteriormente se mira hacia la dinámica, estudiándose el modelado de robots con vistas a obtener un método que permita estimar las fuerzas externas que actúan sobre los mismos. Durante la caracterización del modelo dinámico, se realizan varios ensayos para tratar de encontrar un compromiso entre complejidad de cálculo y error de estimación. También se dan las claves para modelar y caracterizar robots con estructura en forma de paralelogramo y se presenta la arquitectura de control deseada. Una vez obtenido el modelo completo del esclavo, se investigan diferentes alternativas que permitan una estimación de fuerzas externas en tiempo real, minimizando las derivadas de la posición para minimizar el ruido. Se comienza utilizando observadores clásicos del estado para ir evolucionando hasta llegar al desarrollo de un observador de tipo Luenberger-Sliding cuya implementación es relativamente sencilla y sus resultados contundentes. También se analiza el uso del observador propuesto durante un control bilateral simulado en el que se compara la realimentación de fuerzas obtenida con las técnicas clásicas basadas en error de posición frente a un control basado en fuerza-posición donde la fuerza es estimada y no medida. Se comprueba como la solución propuesta da resultados comparables con las arquitecturas clásicas y sin embargo introduce una alternativa para la teleoperación de robots industriales cuya teleoperación en entornos radioactivos sería imposible de otra manera. Finalmente se analizan los problemas derivados de la aplicación práctica de la teleoperación en los escenarios mencionados anteriormente. Debido a las condiciones prohibitivas para todo equipo electrónico, los sistemas de control se deben colocar a gran distancia de los manipuladores, dando lugar a longitudes de cable de centenares de metros. En estas condiciones se crean sobretensiones en controladores basados en PWM que pueden ser destructivas para el sistema formado por control, cableado y actuador, y por tanto, han de ser eliminadas. En este trabajo se propone una solución basada en un filtro LC comercial y se prueba de forma extensiva que su inclusión no produce efectos negativos sobre el control del actuador. ABSTRACT As the energy on the particle accelerators or heavy ion accelerators such as CERN or GSI, fusion reactors such as JET or ITER, or other scientific experiments is increased, it is becoming increasingly necessary to use remote handling techniques to interact with the remote and radioactive environment. So far, the dose rate at CERN could present values near several mSv for cooling times on the range of hours, which allowed human intervention for maintenance tasks. At JET, they measured values close to 200 μSv after a cooling time of 4 months and since then, the remote handling techniques became usual. There is a clear tendency to increase the radiation levels in the future. A clear example is ITER, where values of 450 Sv/h are expected in the centre of the torus after 11 days of cooling. Also, the new energetic levels of CERN are expected to lead to a more advanced remote handling means. In these circumstances this thesis is framed, studying a bilateral control system based on force-position, trying to avoid the use of force/torque sensors, whose electronic content makes them very sensitive in these environments. The contents of this work are focused on teleoperating industrial robots, which due its well-known reliability, easiness to be adapted to these environments, cost-effectiveness and high availability, are considered as an interesting alternative to expensive custom-made solutions for remote handling tasks. Firstly, the kinematic problem of teloperating master and slave with dissimilar kinematics is analysed and a new general approach for solving this issue is presented. The solution includes using assistive forces in order to guide the human operator. Coming up next, I explain with detail the experiments accomplished with an ABB robot that show the difficulties encountered and the proposed solutions. This section is concluded with a method to match the master’s and slave’s workspaces when they present dissimilar kinematics. Later on, the research studies the dynamics, with special focus on robot modelling with the purpose of obtaining a method that allows to estimate external forces acting on them. During the characterisation of the model’s parameters, a set of tests are performed in order to get to a compromise between computational complexity and estimation error. Key points for modelling and characterising robots with a parallelogram structure are also given, and the desired control architecture is presented. Once a complete model of the slave is obtained, different alternatives for external force estimation are review to be able to predict forces in real time, minimizing the position differentiation to minimize the estimation noise. The research starts by implementing classic state observers and then it evolves towards the use of Luenberger- Sliding observers whose implementation is relatively easy and the results are convincing. I also analyse the use of proposed observer during a simulated bilateral control on which the force feedback obtained with the classic techniques based on the position error is compared versus a control architecture based on force-position, where the force is estimated instead of measured. I t is checked how the proposed solution gives results comparable with the classical techniques and however introduces an alternative method for teleoperating industrial robots whose teleoperation in radioactive environments would have been impossible in a different way. Finally, the problems originated by the practical application of teleoperation in the before mentioned scenarios are analysed. Due the prohibitive conditions for every electronic equipment, the control systems should be placed far from the manipulators. This provokes that the power cables that fed the slaves devices can present lengths of hundreds of meters. In these circumstances, overvoltage waves are developed when implementing drives based on PWM technique. The occurrence of overvoltage is very dangerous for the system composed by drive, wiring and actuator, and has to be eliminated. During this work, a solution based on commercial LC filters is proposed and it is extensively proved that its inclusion does not introduce adverse effects into the actuator’s control.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa (por ejemplo la obtenida a partir de los alimentos ingeridos) llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Hoy en día la tecnología actual permite abordar el desarrollo del llamado “páncreas endocrino artificial”, que consta de un sensor continuo de glucosa subcutánea, una bomba de infusión subcutánea de insulina y un algoritmo de control en lazo cerrado que calcule la dosis de insulina requerida por el paciente en cada momento, según la medida de glucosa obtenida por el sensor y según unos objetivos. El mayor problema que presentan los sistemas de control en lazo cerrado son los retardos, el sensor de glucosa subcutánea mide la glucosa del líquido intersticial, que representa la que hubo en la sangre un tiempo atrás, por tanto, un cambio en los niveles de glucosa en la sangre, debidos por ejemplo, a una ingesta, tardaría un tiempo en ser detectado por el sensor. Además, una dosis de insulina suministrada al paciente, tarda un tiempo aproximado de 20-30 minutos para la llegar a la sangre. Para evitar trabajar en la medida que sea posible con estos retardos, se intenta predecir cuál será el nivel de glucosa en un futuro próximo, para ello se utilizara un predictor de glucosa subcutánea, con la información disponible de glucosa e insulina. El objetivo del proyecto es diseñar una metodología para estimar el valor futuro de los niveles de glucosa obtenida a partir de un sensor subcutáneo, basada en la identificación recursiva del sistema glucorregulatorio a través de modelos lineales y determinando un horizonte de predicción óptimo de trabajo y analizando la influencia de la insulina en los resultados de la predicción. Se ha implementado un predictor paramétrico basado en un modelo autorregresivo ARX que predice con mejor precisión y con menor RMSE que un predictor ZOH a un horizonte de predicción de treinta minutos. Utilizar información relativa a la insulina no tiene efecto en la predicción. El preprocesado, postprocesado y el tratamiento de la estabilidad tienen un efecto muy beneficioso en la predicción. Diabetes mellitusis a group of metabolic diseases in which a person has high blood sugar, either because the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. Nowadays, the actual technology allows raising the development of the “artificial endocrine pancreas”. It involves a continuous glucose sensor, an insulin bump, and a full closed loop algorithm that calculate the insulin units required by patient at any time, according to the glucose measure obtained by the sensor and any target. The main problem of the full closed loop systems is the delays, the glucose sensor measures the glucose in the interstitial fluid that represents the glucose was in the blood some time ago. Because of this, a change in the glucose in blood would take some time to be detected by the sensor. In addition, insulin units administered by a patient take about 20-30 minutes to reach the blood stream. In order to avoid this effect, it will try to predict the glucose level in the near future. To do that, a subcutaneous glucose predictor is used to predict the future glucose with the information about insulin and glucose. The goal of the proyect is to design a method in order to estimate the future valor of glucose obtained by a subcutaneous sensor. It is based on the recursive identification of the regulatory system through the linear models, determining optimal prediction horizon and analyzing the influence of insuline on the prediction results. A parametric predictor based in ARX autoregressive model predicts with better precision and with lesser RMSE than ZOH predictor in a thirty minutes prediction horizon. Using the relative insulin information has no effect in the prediction. The preprocessing, the postprocessing and the stability treatment have many advantages in the prediction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mosca mediterránea de la fruta Ceratitis capitata (Wiedemann, 1824) está considerada una de las plagas clave para la fruticultura. El malatión es un insecticida organofosforado que fue empleado mayoritariamente en España para el control de C. capitata hasta 2009, año en el que dede utilizarse por no estar incluido en el anexo I de la Directiva Europea 91/414/ECC. El incremento del uso del malatión, debido a las graves pérdidas económicas causadas por C. capitata, provocó la aparición de poblaciones de campo resistentes. El estudio de una población resistente a malatión, recogida en Castelló en 2004, permitió la identificación de dos mecanismos de resistencia: una mutación puntual (G328A) en la acetilcolinesterasa (AChE) y un mecanismo de resistencia metabólica, probablemente mediado por carboxilesterasas. Teniendo en cuenta estos antecedentes, nos propusimos estudiar los mecanismos implicados en la resistencia a malatión en C. capitata. Además, durante el desarrollo de esta Tesis, el malatión fue sustituido por otros insecticidas como el espinosad y la lambda-cialotrina para el control de la plaga. En este nuevo contexto, es extremadamente importante analizar la susceptibilidad de poblaciones de campo frente a espinosad y estudiar la posible existencia de resistencia cruzada a estos insecticidas, así como sentar las bases para el estudio de futuros mecanismos de resistencia. En primer lugar, analizamos mediante bioensayos con dosis discriminante la susceptibilidad a malatión y espinosad en doce poblaciones de C. capitata de Andalucía, Aragón, Cataluña, Comunidad Valenciana e Islas Baleares; y nuestros resultados sugirieron la presencia de individuos resistentes a malatión en la mayoría de las poblaciones analizadas. En el caso del espinosad, observamos que la susceptibilidad a este insecticida de origen biológico fue elevada en la mayoría de las poblaciones, sin embargo, la población recogida en Xàbia (Alicante) mostró un nivel de susceptibilidad unas dos veces menor al resto de poblaciones. Mediante la selección en laboratorio, obtuvimos dos líneas resistentes a malatión, W-4Km y W-10Km, con unos niveles de resistencia con respeto a la línea susceptible C de 178 y 400 veces, respectivamente. Además, se seleccionó por primera vez en C. capitata una línea altamente resistente a espinosad (Xàbia-W-100s), que actualmente es unas 500 veces más resistente que la línea de laboratorio C. Con el objetivo de escoger la estrategia más adecuada para el manejo de la plaga, estudiamos la susceptibilidad a diferentes tipos de insecticidas en la línea resistente a malatión W- 4Km. En esta línea detectamos resistencia cruzada moderada a los organofosforados fentión, diazinón, fosmet, triclorfón y metil-clorpirifos (de 7 a 16 veces) y frente al carbamato carbaril, al piretroide lambda-cialotrina y al quimioesterilizante lufenurón (de 4 a 6 veces). Por otra parte, la resistencia cruzada frente a espinosad fue baja (1,5 veces). Es importante destacar que los niveles de resistencia estimados frente a todos los insecticidas fueron de uno o dos órdenes de magnitud inferiores al observado en la línea W-4Km frente a malatión (178 veces), hecho que podría deberse, al menos, a dos posibles hipótesis: que la mutación AChE G328A confiera mayor insensibilidad al malaoxón (forma activa del malatión) que a otros insecticidas que tienen como diana la AChE y/o, en segundo lugar, que el mecanismo de resistencia mediado por carboxilesterasas hidrolice el malatión de manera más eficiente que los otros insecticidas analizados. En el estudio de nuevos mecanismos de resistencia en C. capitata, por un lado, analizamos la diversidad de enzimas citocromo P450, asociadas con resistencia metabólica en otras especies, y por otro lado, desarrollamos un sistema para la detección de nuevas mutaciones puntuales que pudiesen aparecer en los genes que codifican la AChE (Ccace2) y la aliesterasa (Ccae7). Mediante el empleo de cebadores degenerados obtuvimos 37 genes CYP, que codifican enzimas P450, pertenecientes a cinco familias. Posteriormente, en un estudio de inducción con fenobarbital, observamos que la expresión de cuatro de los seis genes analizados era susceptible de ser inducida. Por otro lado, se puso a punto un sistema que permite amplificar y secuenciar, a partir de DNA genómico, los exones de los genes Ccace2 y Ccae7 en los que se han encontrado mutaciones relacionadas con resistencia a insecticidas en otras especies. Los resultados obtenidos facilitarán el estudio de nuevos mecanismos de resistencia mediados por estas enzimas en C. capitata. Se diseñó un método PCR-RFLP para identificar los individuos portadores de la mutación AChE G328A (alelo de resistencia Ccace2R) sin la necesidad de realizar bioensayos y que, además, permite detectar resistencia cuando ésta se encuentra a baja frecuencia. Según el análisis realizado, el alelo Ccace2R se observó en 25 de las 27 localidades españolas muestreadas en el territorio español, incluyendo las Islas Baleares y Canarias. Sin embargo, este alelo no se detectó en poblaciones procedentes de once países y de cinco continentes. El análisis de la presencia del alelo Ccace2R en las líneas resistentes a malatión durante el proceso de selección en el laboratorio mostró una rápida disminución de los homocigotos, tanto para el alelo susceptible como para el alelo de resistencia, en favor de los individuos heterocigotos. Así, después de 52 generaciones de selección, se observó que la totalidad de los individuos analizados de la línea W-10Km presentaban un genotipo heterocigoto para la mutación AChE G328A. Este desequilibrio contradice la segregación mendeliana esperada para un gen con dos alelos pero podría ser explicado por la existencia de una duplicación del gen Ccace2. La demostración de la presencia de esta duplicación se realizó mediante: i) el cruzamiento de individuos heterocigotos de la línea W-10Km con homocigotos susceptibles de la línea C, que dio lugar a una descendencia en la que el 100% de los individuos eran heterocigotos; ii) la evaluación del número de copias del gen Ccace2 por PCR cuantitativa en tiempo real (qPCR), que resultó dos veces mayor en individuos de la línea W-10Km en comparación con los de la línea C; iii) el análisis del nivel de expresión de Ccace2, que fue el doble en la línea W-10Km con respecto a la línea C, y iv) el estudio de la actividad AChE, que resultó mayor en los individuos de la línea W-10Km. Según los resultados obtenidos, una duplicación del gen Ccace2 provoca la coexistencia en un mismo cromosoma del alelo silvestre y del alelo mutado y, además, las dos copias del gen Ccace2, al estar ligadas, producen una heterocigosis permanente (Ccace2RS). De esta manera se explica que el hecho de que 100% de los individuos de la línea W-10Km mostrasen un perfil de restricción correspondiente a un individuo heterocigoto ya que, en realidad, eran homocigotos estructurales para la duplicación (genotipo CCace2RS/RS). Se ha detectado un coste biológico asociado a la duplicación que consiste en un incremento en la mortalidad acumulada de los adultos a partir del séptimo día después de la emergencia. La descripción de la duplicación Ccace2RS supone la identificación de un nuevo mecanismo de resistencia a malatión en C. capitata. Finalmente, mediante el diseño de un método de doble PCR-RFLP se determinó la presencia de la duplicación Ccace2RS en la mayoría de las poblaciones españolas. La proporción de individuos portadores de la duplicación osciló entre el 5% y el 35%, observándose los mayores valores de frecuencia en las poblaciones de C. capitata recogidas en la cuenca mediterránea. Podemos por lo tanto concluir que la resistencia a malatión asociada a la mutación AChE G328A y a la duplicación Ccace2RS está ampliamente establecida en las poblaciones españolas de C. capitata. Nuestros resultados desaconsejan la utilización del malatión (si fuera de nuevo autorizado) o de otros organofosforados para el control de esta plaga. Además, una de las líneas resistentes a malatión mostró resistencia cruzada frente a insecticidas con diferentes modos de acción y que se utilizan actualmente para el control de C. capitata, tales como lambda-cialotrina y lufenurón. La alta susceptibilidad a espinosad observada en las poblaciones españolas, así como la reducida resistencia cruzada estimada para este insecticida, sugieren que su utilización es adecuada para el control de la plaga. Sin embargo, la utilización de un sólo insecticida puede entrañar riesgos por favorecer la selección de resistencia, de hecho, mediante selección en laboratorio se obtuvo una población altamente resistente a espinosad. Por tanto, es recomendable implementar programas de control integrado y de manejo de la resistencia en C. capitata utilizando distintos sistemas de control e insecticidas con diferentes mecanismos de acción que permitan su sostenibilidad en el tiempo. Los sistemas de detección de alelos de resistencia desarrollados en este trabajo permitirán la detección precoz de resistencia en campo, facilitando la decisión sobre el sistema de control más adecuado. Además, los conocimientos generados podrán contribuir al desarrollo de nuevos sistemas de detección para otros mecanismos de resistencia. Abstract. The Mediterranean fruit fly, Ceratitis capitata (Wiedemann, 1824), is considered one of the most harmful pests in fruit crops. Until 2009, when malathion use was banned due to its not inclusion in the Annex I of Directive 91/414/EEC, the application of this organophosphate (OP) insecticide in Spain increased gradually due to the large economic losses caused by C. capitata. The increase in the frequency of treatments resulted in the development of resistant field populations. The study of a malathion-resistant population, collected in 2004 in Castelló (Comunidad Valenciana), allowed the identification of two resistance mechanisms: a single point mutation (G328A) in the target acetylcholinesterase (AChE), as well as a metabolic resistance mechanism, most likely carboxylesterase-mediated. Taking all the preceding into account, we studied the malathion resistance mechanisms in C. capitata. During the development of this PhD Thesis malathion use was banned by the European Union, being replaced by other insecticides, such as spinosad and lambda-cyhalotrin. Within this new working frame, the need to analyse the possible existence of cross-resistance to these insecticides and the susceptibility to spinosad in field populations was raised. This would define the baseline for future studies on resistance mechanisms. Firstly, through discriminant dose bioassays, we analysed malathion and spinosad susceptibility in twelve C. capitata populations from Andalucia, Aragon, Cataluña, C. Valenciana and the Baleares Islands. Our results suggest the presence of malathion-resistant individuals in most of the populations analysed. Regarding spinosad, we noticed a high susceptibility to this biologically derived insecticide in most of the populations, but in the one collected in Xabia (Alicante), which had a susceptibility level two times lower than the rest of populations. Through laboratory selection, we obtained two malathion-resistant strains, W-4Km and W-10Km, with resistance levels 178- and 400-fold, respectively, compared to the control susceptible C strain. Besides, a strain highly-resistant to spinosad (Xabia-W-100s), 500-times more resistant than control C strain, was selected. In order to decide the most appropriate management strategy for the pest, we studied the susceptibility to different insecticides in the malathion-resistant W-4Km strain. We detected a moderated cross-resistance to the OPs fenthion, diazinon, phosmet, trichlorphon and methylchlorpyrifos (7- to 16-fold), and to the carbamate carbaryl, the pyretroid lambda-cyhalotrin and the chemosterilizer lufenuron (4- to 6-fold). On the other hand, cross-resistance to spinosad was low (1.5-fold). It is important to note that resistance levels to all insecticides were one or two orders of magnitude less than that observed against malathion in W-4Km strain (178-fold), a fact that might be due to, at least, two possible causes: mutation AChE G328A may provide a higher insensitivity to malaoxon (the active form of malathion) than to other insecticides having AChE as target, and/or, secondly, the carboxylesterase-mediated resistance mechanism hydrolyzes malathion more efficiently than all other analysed insecticides. To investigate new resistance mechanisms in C. capitata we analysed the diversity of the cytochrome P450 enzymes, which have been associated to metabolic resistance in insects, and we developed a new method to detect single point mutations in acetylcholinesterase (Ccace2) and aliesterase (Ccae7) genes that could appear. Using degenerate primers we obtained 37 CYP genes, coding P450 enzymes, included in five families. Afterwards, in a phenobarbital-induction study, we observed that the expression of 4 out of the 6 analysed genes could be induced. On the other hand, a system was set up to amplify and to sequence from genomic DNA the exons of genes Ccace2 and Ccae7 where mutations related to insecticide resistance have been found in other species. The results obtained could facilitate the study of new resistance mechanisms in C. capitata mediated by these enzymes. A PCR-RFLP method was designed to detect the presence of the mutation AChE G328A (resistance allele Ccace2R), with no need to perform bioassays and allowing detecting resistance at low frequency. According to the analysis, the resistance allele was found in 25 out of 27 sampled locations in Spain, including the Balearic and the Canary Islands. However, this allele was not detected in other populations collected in 11 countries from 5 continents. The follow-up of the presence of the allele Ccace2R in the malathion-resistant strains during the selection process in the laboratory showed a quick decrease in homozygous individuals, for both the susceptible and the resistant alleles, favouring heterozygous. Thus, after 52 generations of selection, all the individuals analysed from W-10Km strain showed a heterozygous genotype for mutation AChE G328A, contradicting mendelian segregation as expected for a gene with two alleles. Afterwards, we were able to demonstrate that this was caused by the presence of a duplication of the gene coding acetylcholinesterase by: i) crossing heterozygous individuals from W-10Km strain with susceptible homozygous from C strain, originating a F1 population in which 100% of individuals were heterozygous; ii) evaluating the number of copies of gen Ccace2 by quantitative PCR in real time (qPCR), that happened to be twice higher in individuals from W-10Km VII strain when compared with C strain; iii) analysing the level of expression of Ccace2, twice in W- 10Km strain when compared to C strain; iv) studying the acetylcholinesterase activity, that was higher in individuals from W-10Km strain. According to these results, duplication of gen Ccace2 originates the coexistence of the susceptible and the resistant allele in the same chromosome. The two linked copies of the gene Ccace2 provoke the existence of permanent heterozygosis (Ccace2RS). This explains why the 100% of individuals from W-10Km strain showed an heterozygous restriction pattern since, in fact, they were structural homozygotes for the duplication (genotype Ccace2RS/RS). A biological cost has been detected associated to this duplication, consisting in a rise in accumulated adult mortality from the seventh day after emergence. The Ccace2RS duplication described in this study represents a new resistance mechanism to malathion in C. capitata. Finally, by the design of a double PCR-RFLP method, the presence of Ccace2RS duplication was confirmed in most of the Spanish populations. We observed that the proportion of individuals carrying the duplication oscillated between 5 and 35%, the frequency being higher in those C. capitata populations collected in the area of the Mediterranean basin. Therefore, we can conclude that malathion resistance associated to mutation AChE G328A and to Ccace2RS duplication are widely distributed in Spanish populations of C. capitata. Our results advice against the use of malathion (if it came to be newly authorized for use) or other OPs for the control of this pest. Besides, one of the malathion-resistant strains showed cross-resistance against insecticides with diverse action modes that are currently used for pest control, such as lambdacyhalotrin and lufenuron. High susceptibility to spinosad in the Spanish populations, as well as the reduced cross-resistance estimated for this insecticide suggests its adequacy for Medfly control. However, the use of a single insecticide is a risky strategy since it favours the selection of resistance. In fact, a population highly resistant to spinosad was obtained through laboratory selection. Therefore, it is advisable to implement integrated pest management (IPM) and resistance management programs for C. capitata control. Using insecticides with different modes of action and diverse control systems would contribute to the sustainability of the pest control. The resistance allele detection systems developed through this work will allow the early detection of resistance in the field, making possible the selection of the most appropriate method for pest control. Besides, the generated knowledge may also contribute to the development of new detection systems for other resistance mechanisms.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo del presente proyecto es identificar y definir la problemática del ruido neutrónico en el tratamiento y procesamiento de los canales de medida y tratamiento del flujo neutrónico interno y externo en los sistemas de control y protección de los reactores nucleares tipo PWR (que trabajan con agua a presión) que dan lugar a actuaciones indeseadas de los sistemas de vigilancia y control no relacionadas con situaciones reales del proceso como cambios significativos en los parámetros de temperatura y por lo tanto de potencia del reactor que reducen la disponibilidad de operación de la central y provocan transitorios no justificados por dichas actuaciones. Finalmente, se proponen algunas soluciones. Abstract The aim of this project is to identify and define the problem of neutron noise in PWR nuclear power plants, its influence on the treatment and processing of the measurement channels and external neutron flux treatment, its contributions to the control and protection systems that result in undesired actions of monitoring and control systems that are not related to the actual process conditions. These actions reduce the availability of plant operation and unjustified transient causes. Finally, some possible solutions are proposed