165 resultados para RUIDO - LEGISLACION
Design and Simulation of Deep Nanometer SRAM Cells under Energy, Mismatch, and Radiation Constraints
Resumo:
La fiabilidad está pasando a ser el principal problema de los circuitos integrados según la tecnología desciende por debajo de los 22nm. Pequeñas imperfecciones en la fabricación de los dispositivos dan lugar ahora a importantes diferencias aleatorias en sus características eléctricas, que han de ser tenidas en cuenta durante la fase de diseño. Los nuevos procesos y materiales requeridos para la fabricación de dispositivos de dimensiones tan reducidas están dando lugar a diferentes efectos que resultan finalmente en un incremento del consumo estático, o una mayor vulnerabilidad frente a radiación. Las memorias SRAM son ya la parte más vulnerable de un sistema electrónico, no solo por representar más de la mitad del área de los SoCs y microprocesadores actuales, sino también porque las variaciones de proceso les afectan de forma crítica, donde el fallo de una única célula afecta a la memoria entera. Esta tesis aborda los diferentes retos que presenta el diseño de memorias SRAM en las tecnologías más pequeñas. En un escenario de aumento de la variabilidad, se consideran problemas como el consumo de energía, el diseño teniendo en cuenta efectos de la tecnología a bajo nivel o el endurecimiento frente a radiación. En primer lugar, dado el aumento de la variabilidad de los dispositivos pertenecientes a los nodos tecnológicos más pequeños, así como a la aparición de nuevas fuentes de variabilidad por la inclusión de nuevos dispositivos y la reducción de sus dimensiones, la precisión del modelado de dicha variabilidad es crucial. Se propone en la tesis extender el método de inyectores, que modela la variabilidad a nivel de circuito, abstrayendo sus causas físicas, añadiendo dos nuevas fuentes para modelar la pendiente sub-umbral y el DIBL, de creciente importancia en la tecnología FinFET. Los dos nuevos inyectores propuestos incrementan la exactitud de figuras de mérito a diferentes niveles de abstracción del diseño electrónico: a nivel de transistor, de puerta y de circuito. El error cuadrático medio al simular métricas de estabilidad y prestaciones de células SRAM se reduce un mínimo de 1,5 veces y hasta un máximo de 7,5 a la vez que la estimación de la probabilidad de fallo se mejora en varios ordenes de magnitud. El diseño para bajo consumo es una de las principales aplicaciones actuales dada la creciente importancia de los dispositivos móviles dependientes de baterías. Es igualmente necesario debido a las importantes densidades de potencia en los sistemas actuales, con el fin de reducir su disipación térmica y sus consecuencias en cuanto al envejecimiento. El método tradicional de reducir la tensión de alimentación para reducir el consumo es problemático en el caso de las memorias SRAM dado el creciente impacto de la variabilidad a bajas tensiones. Se propone el diseño de una célula que usa valores negativos en la bit-line para reducir los fallos de escritura según se reduce la tensión de alimentación principal. A pesar de usar una segunda fuente de alimentación para la tensión negativa en la bit-line, el diseño propuesto consigue reducir el consumo hasta en un 20 % comparado con una célula convencional. Una nueva métrica, el hold trip point se ha propuesto para prevenir nuevos tipos de fallo debidos al uso de tensiones negativas, así como un método alternativo para estimar la velocidad de lectura, reduciendo el número de simulaciones necesarias. Según continúa la reducción del tamaño de los dispositivos electrónicos, se incluyen nuevos mecanismos que permiten facilitar el proceso de fabricación, o alcanzar las prestaciones requeridas para cada nueva generación tecnológica. Se puede citar como ejemplo el estrés compresivo o extensivo aplicado a los fins en tecnologías FinFET, que altera la movilidad de los transistores fabricados a partir de dichos fins. Los efectos de estos mecanismos dependen mucho del layout, la posición de unos transistores afecta a los transistores colindantes y pudiendo ser el efecto diferente en diferentes tipos de transistores. Se propone el uso de una célula SRAM complementaria que utiliza dispositivos pMOS en los transistores de paso, así reduciendo la longitud de los fins de los transistores nMOS y alargando los de los pMOS, extendiéndolos a las células vecinas y hasta los límites de la matriz de células. Considerando los efectos del STI y estresores de SiGe, el diseño propuesto mejora los dos tipos de transistores, mejorando las prestaciones de la célula SRAM complementaria en más de un 10% para una misma probabilidad de fallo y un mismo consumo estático, sin que se requiera aumentar el área. Finalmente, la radiación ha sido un problema recurrente en la electrónica para aplicaciones espaciales, pero la reducción de las corrientes y tensiones de los dispositivos actuales los está volviendo vulnerables al ruido generado por radiación, incluso a nivel de suelo. Pese a que tecnologías como SOI o FinFET reducen la cantidad de energía colectada por el circuito durante el impacto de una partícula, las importantes variaciones de proceso en los nodos más pequeños va a afectar su inmunidad frente a la radiación. Se demuestra que los errores inducidos por radiación pueden aumentar hasta en un 40 % en el nodo de 7nm cuando se consideran las variaciones de proceso, comparado con el caso nominal. Este incremento es de una magnitud mayor que la mejora obtenida mediante el diseño de células de memoria específicamente endurecidas frente a radiación, sugiriendo que la reducción de la variabilidad representaría una mayor mejora. ABSTRACT Reliability is becoming the main concern on integrated circuit as the technology goes beyond 22nm. Small imperfections in the device manufacturing result now in important random differences of the devices at electrical level which must be dealt with during the design. New processes and materials, required to allow the fabrication of the extremely short devices, are making new effects appear resulting ultimately on increased static power consumption, or higher vulnerability to radiation SRAMs have become the most vulnerable part of electronic systems, not only they account for more than half of the chip area of nowadays SoCs and microprocessors, but they are critical as soon as different variation sources are regarded, with failures in a single cell making the whole memory fail. This thesis addresses the different challenges that SRAM design has in the smallest technologies. In a common scenario of increasing variability, issues like energy consumption, design aware of the technology and radiation hardening are considered. First, given the increasing magnitude of device variability in the smallest nodes, as well as new sources of variability appearing as a consequence of new devices and shortened lengths, an accurate modeling of the variability is crucial. We propose to extend the injectors method that models variability at circuit level, abstracting its physical sources, to better model sub-threshold slope and drain induced barrier lowering that are gaining importance in FinFET technology. The two new proposed injectors bring an increased accuracy of figures of merit at different abstraction levels of electronic design, at transistor, gate and circuit levels. The mean square error estimating performance and stability metrics of SRAM cells is reduced by at least 1.5 and up to 7.5 while the yield estimation is improved by orders of magnitude. Low power design is a major constraint given the high-growing market of mobile devices that run on battery. It is also relevant because of the increased power densities of nowadays systems, in order to reduce the thermal dissipation and its impact on aging. The traditional approach of reducing the voltage to lower the energy consumption if challenging in the case of SRAMs given the increased impact of process variations at low voltage supplies. We propose a cell design that makes use of negative bit-line write-assist to overcome write failures as the main supply voltage is lowered. Despite using a second power source for the negative bit-line, the design achieves an energy reduction up to 20% compared to a conventional cell. A new metric, the hold trip point has been introduced to deal with new sources of failures to cells using a negative bit-line voltage, as well as an alternative method to estimate cell speed, requiring less simulations. With the continuous reduction of device sizes, new mechanisms need to be included to ease the fabrication process and to meet the performance targets of the successive nodes. As example we can consider the compressive or tensile strains included in FinFET technology, that alter the mobility of the transistors made out of the concerned fins. The effects of these mechanisms are very dependent on the layout, with transistor being affected by their neighbors, and different types of transistors being affected in a different way. We propose to use complementary SRAM cells with pMOS pass-gates in order to reduce the fin length of nMOS devices and achieve long uncut fins for the pMOS devices when the cell is included in its corresponding array. Once Shallow Trench isolation and SiGe stressors are considered the proposed design improves both kinds of transistor, boosting the performance of complementary SRAM cells by more than 10% for a same failure probability and static power consumption, with no area overhead. While radiation has been a traditional concern in space electronics, the small currents and voltages used in the latest nodes are making them more vulnerable to radiation-induced transient noise, even at ground level. Even if SOI or FinFET technologies reduce the amount of energy transferred from the striking particle to the circuit, the important process variation that the smallest nodes will present will affect their radiation hardening capabilities. We demonstrate that process variations can increase the radiation-induced error rate by up to 40% in the 7nm node compared to the nominal case. This increase is higher than the improvement achieved by radiation-hardened cells suggesting that the reduction of process variations would bring a higher improvement.
Resumo:
Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.
Resumo:
En el Campus Sur de la Universidad Politécnica de Madrid se ha llevado a cabo un proyecto para obtener una caracterización del subsuelo mediante ensayos ReMi, en colaboración con el departamento de Geofísica del Instituto Geográfico Nacional. La técnica ReMi (Refraction Microtremor) permite, mediante ensayos geofísicos realizados localmente sobre el terreno,obtener los parámetros físicos del mismo, que resultan de especial interés en el ámbito de la ingeniería civil. Esta técnica se caracteriza por englobarse dentro de la sísmica pasiva, muy empleada en prospección geofísica y basada en la obtención del modelo subyacente de distribución de velocidades de propagación de la onda S en función de la profundidad, con la ventaja de aprovechar el ruido sísmico ambiental como fuente de energía. Fue desarrollada en el Laboratorio Sismológico de Nevada (EEUU) por Louie (2001), con el objetivo de presentar una técnica innovadora en la obtención de las velocidades de propagación de manera experimental. Presenta ciertas ventajas, como la observación directa de la dispersión de ondas superficiales,que da un buen resultado de la velocidad de onda S, siendo un método no invasivo, de bajo coste y buena resolución, aplicable en entornos urbanos o sensibles en los que tanto otras técnicas sismológicas como otras variedades de prospección presentan dificultades. La velocidad de propagación de la onda S en los 30 primeros metros VS30, es ampliamente reconocida como un parámetro equivalente válido para caracterizar geotécnicamente el subsuelo y se halla matemáticamente relacionada con la velocidad de propagación de las ondas superficiales a observar mediante la técnica ReMi. Su observación permite el análisis espectral de los registros adquiridos, obteniéndose un modelo representado por la curva de dispersión de cada emplazamiento, de modo que mediante una inversión se obtiene el modelo de velocidad de propagación en función de la profundidad. A través de estos modelos, pueden obtenerse otros parámetros de interés sismológico. Estos resultados se representan sobre mapas isométricos para obtener una relación espacial de los mismos, particularmente conocido como zonación sísmica. De este análisis se extrae que la VS30 promedio del Campus no es baja en exceso, correspondiéndose a posteriori con los resultados de amplificación sísmica, período fundamental de resonancia del lugar y profundidad del sustrato rocoso. En última instancia se comprueba que los valores de amplificación sísmica máxima y el período al cual se produce posiblemente coincidan con los períodos fundamentales de resonancia de algunos edificios del Campus. ABSTRACT In South Campus at Polytechnic University of Madrid, a project has been carried out to obtain a proper subsoil description by applying ReMi tests, in collaboration with the Department of Geophysics of the National Geographic Institute. Through geophysical tests conducted locally, the ReMi (Refraction Microtremor) technique allows to establish the physical parameters of soil, which are of special interest in the field of civil engineering. This technique is part of passive seismic methods, often used in geophysical prospecting. It focuses in obtaining the underlying model of propagation velocity distribution of the shear wave according to depth and has the advantage of being able to use seismic ambient noise as a source of energy. It was developed in the Nevada Seismological Laboratory (USA) by Louie (2001) as an innovative technique for obtaining propagation velocities experimentally. It has several other advantages, including the direct observation of the dispersion of surface waves, which allows to reliably measure S wave velocity. This is a non-invasive, low cost and good resolution method, which can be applied in urban or sensitive environments where other prospection methods present difficulties. The propagation velocity of shear waves in the first 30 meters Vs30 is widely recognized as a valid equivalent parameter to geotechnically characterize the subsurface. It is mathematically related to surface wave's velocity of propagation, which are to observe using REMI technique. Spectral analysis of acquired data sets up a model represented by the dispersion curve at each site, so that, using an inversion process, propagation velocity model in relation to depth is obtained. Through this models, other seismologically interesting parameters can be obtained. These results are represented on isometric maps in order to obtain a spatial relationship between them, a process which is known as seismic zonation. This analysis infers that Vs30 at South Campus is not alarmingly low , corresponding with subsequent results of seismic amplification, fundamental period of resonance of soil and depth of bedrock. Ultimately, it's found that calculated values of soil's fundamental periods at which maximum seismic amplification occurs, may possibly match fundamental periods of some Campus buildings.
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.
Resumo:
Desde que las Tecnologías de la Información y la Comunicación comenzaron a adquirir una gran importancia en la sociedad, uno de los principales objetivos ha sido conseguir que la información transmitida llegue en perfectas condiciones al receptor. Por este motivo, se hace necesario el desarrollo de nuevos sistemas de comunicación digital capaces de ofrecer una transmisión segura y fiable. Con el paso de los años, se han ido mejorando las características de los mismos, lo que significa importantes avances en la vida cotidiana. En este contexto, uno de los sistemas que más éxito ha tenido es la Modulación Reticulada con Codificación TCM, que aporta grandes ventajas en la comunicación digital, especialmente en los sistemas de banda estrecha. Este tipo de código de protección contra errores, basado en la codificación convolucional, se caracteriza por realizar la modulación y codificación en una sola función. Como consecuencia, se obtiene una mayor velocidad de transmisión de datos sin necesidad de incrementar el ancho de banda, a costa de pasar a una constelación superior. Con este Proyecto Fin de Grado se quiere analizar el comportamiento de la modulación TCM y cuáles son las ventajas que ofrece frente a otros sistemas similares. Se propone realizar cuatro simulaciones, que permitan visualizar diversas gráficas en las que se relacione la probabilidad de bit erróneo BER y la relación señal a ruido SNR. Además, con estas gráficas se puede determinar la ganancia que se obtiene con respecto a la probabilidad de bit erróneo teórica. Estos sistemas pasan de una modulación QPSK a una 8PSK o de una 8PSK a una 16QAM. Finalmente, se desarrolla un entorno gráfico de Matlab con el fin de proporcionar un sencillo manejo al usuario y una mayor interactividad. ABSTRACT. Since Information and Communication Technologies began to gain importance on society, one of the main objectives has been to achieve the transmitted information reaches the receiver perfectly. For this reason, it is necessary to develop new digital communication systems with the ability to offer a secure and reliable transmission. The systems characteristics have improved over the past years, what it means important progress in everyday life. In this context, one of the most successful systems is Trellis Coded Modulation TCM, that brings great advantages in terms of digital communications, especially narrowband systems. This kind of error correcting code, based on convolutional coding, is characterized by codifying and modulating at the same time. As a result, a higher data transmission speed is achieved without increasing bandwidth at the expense of using a superior modulation. The aim of this project is to analyze the TCM performance and the advantages it offers in comparison with other similar systems. Four simulations are proposed, that allows to display several graphics that show how the Bit Error Ratio BER and Signal Noise Ratio SNR are related. Furthermore, it is possible to calculate the coding gain. Finally, a Matlab graphic environment is designed in order to guarantee the interactivity with the final user.
Resumo:
El incremento de la población con acceso a la televisión a mediados del siglo XX hizo necesaria la implantación de una normativa que regulara el acceso a este servicio a través de las infraestructuras comunes de telecomunicación. Estas infraestructuras están formadas por diversos elementos que pueden alterar los parámetros de calidad de la señal de televisión radiodifundida, actualmente bajo norma DVB-T. Normalmente, los diseños de las redes se hacen atendiendo a las atenuaciones que presentan los dispositivos pero sin tener en cuenta la influencia de los mismos sobre los parámetros de calidad de la señal. Por ello, es necesario conocer esta influencia para que, a la hora de diseñar una red, se cumplan no solo los requisitos de nivel de señal en las tomas de usuario sino que también se han de cumplir los requisitos de calidad (MER, relación portadora a ruido, CBER). Para llevar a cabo este estudio, en primer lugar es necesario conocer los equipos de generación y medida de señales DVB-T. El conocimiento de las características de estos equipos, las funciones que pueden realizar y sus limitaciones ayudan a llevar a cabo un buen estudio de los parámetros de calidad de la señal. Posteriormente, se realiza un estudio individual de los elementos utilizados para la construcción de una red de distribución de señal de televisión digital terrestre con el objetivo de comprobar su comportamiento en frecuencia, ya que según los fabricantes su respuesta en frecuencia es plana, y su influencia sobre la calidad de la señal. Además, se utilizarán elementos de distintas características para conocer la influencia de dichas características sobre los parámetros de calidad. Una vez llevado a cabo este estudio individual, se construye una infraestructura común de telecomunicaciones para realizar las medidas necesarias en las tomas de usuario y en puntos intermedios para así conocer cómo empeora la calidad de la señal a lo largo de este tipo de redes. ABSTRACT. The increase in population with access to television services in the middle of the 20th century, made it necessary to set a new rule to regulate this service access through the common telecommunications infrastructures. These infrastructures are composed by different elements which can alter the parameters of quality of the broadcasted television signal, nowadays under DVB-T standard. Networks design are usually made taking into account the loss of each device but without taking into account the influence on the quality parameters of the signal. Because of that, it is necessary to know this influence in order to meet not only the level requirements but also the quality requirements (MER, carrier-to-noise relation, CBER). To carry out this study, it is first necessary to understand the generation and measurement DVB-T signal equipment. The knowledge of the characteristics of these devices, their functions and limitations help to carry out a good study of the signal quality parameters. Subsequently, an individual examination of the elements used to build a distribution network of digital terrestrial television is performed in order to check its frequency dependence, since according to manufacturers’ datasheets the frequency is flat, and its influence on the signal quality parameters. In addition, elements of different characteristics are used to determine the influence of these characteristics on the quality parameters. Once done this single study, a common telecommunications infrastructure is built to perform the necessary measurements at the user points and at intermediate points in order to know how the quality of the signal over this kind of networks.
Resumo:
El aislamiento acústico de elementos constructivos obtenido en obra difiere del aislamiento acústico obtenido en laboratorio, tanto para ruido aéreo como para ruido de impactos. Esto se produce porque el aislamiento acústico de cualquier elemento constructivo, como por ejemplo una pared, está influido por los elementos constructivos conectados a ella, como son tabiques, forjados o fachadas, ya que los elementos constructivos, en presencia del campo acústico vibran y transmiten sus vibraciones al elemento de separación produciendo la transmisión indirecta estructural o también denominada transmisión por flancos. El objeto de esta comunicación es cuantificar la pérdida de aislamiento acústico a ruido aéreo, que se produce en la edificación y que es atribuible a las transmisiones indirectas. En el caso de los edificios estudiados, la pérdida de aislamiento acústico puede variar de 4 a 10 dB.
Resumo:
Las redes de sensores inalámbricas son uno de los sectores con más crecimiento dentro de las redes inalámbricas. La rápida adopción de estas redes como solución para muchas nuevas aplicaciones ha llevado a un creciente tráfico en el espectro radioeléctrico. Debido a que las redes inalámbricas de sensores operan en las bandas libres Industrial, Scientific and Medical (ISM) se ha producido una saturación del espectro que en pocos años no permitirá un buen funcionamiento. Con el objetivo de solucionar este tipo de problemas ha aparecido el paradigma de Radio Cognitiva (CR). La introducción de las capacidades cognitivas en las redes inalámbricas de sensores permite utilizar estas redes para aplicaciones con unos requisitos más estrictos respecto a fiabilidad, cobertura o calidad de servicio. Estas redes que aúnan todas estas características son llamadas redes de sensores inalámbricas cognitivas (CWSNs). La mejora en prestaciones de las CWSNs permite su utilización en aplicaciones críticas donde antes no podían ser utilizadas como monitorización de estructuras, de servicios médicos, en entornos militares o de vigilancia. Sin embargo, estas aplicaciones también requieren de otras características que la radio cognitiva no nos ofrece directamente como, por ejemplo, la seguridad. La seguridad en CWSNs es un aspecto poco desarrollado al ser una característica no esencial para su funcionamiento, como pueden serlo el sensado del espectro o la colaboración. Sin embargo, su estudio y mejora es esencial de cara al crecimiento de las CWSNs. Por tanto, esta tesis tiene como objetivo implementar contramedidas usando las nuevas capacidades cognitivas, especialmente en la capa física, teniendo en cuenta las limitaciones con las que cuentan las WSNs. En el ciclo de trabajo de esta tesis se han desarrollado dos estrategias de seguridad contra ataques de especial importancia en redes cognitivas: el ataque de simulación de usuario primario (PUE) y el ataque contra la privacidad eavesdropping. Para mitigar el ataque PUE se ha desarrollado una contramedida basada en la detección de anomalías. Se han implementado dos algoritmos diferentes para detectar este ataque: el algoritmo de Cumulative Sum y el algoritmo de Data Clustering. Una vez comprobado su validez se han comparado entre sí y se han investigado los efectos que pueden afectar al funcionamiento de los mismos. Para combatir el ataque de eavesdropping se ha desarrollado una contramedida basada en la inyección de ruido artificial de manera que el atacante no distinga las señales con información del ruido sin verse afectada la comunicación que nos interesa. También se ha estudiado el impacto que tiene esta contramedida en los recursos de la red. Como resultado paralelo se ha desarrollado un marco de pruebas para CWSNs que consta de un simulador y de una red de nodos cognitivos reales. Estas herramientas han sido esenciales para la implementación y extracción de resultados de la tesis. ABSTRACT Wireless Sensor Networks (WSNs) are one of the fastest growing sectors in wireless networks. The fast introduction of these networks as a solution in many new applications has increased the traffic in the radio spectrum. Due to the operation of WSNs in the free industrial, scientific, and medical (ISM) bands, saturation has ocurred in these frequencies that will make the same operation methods impossible in the future. Cognitive radio (CR) has appeared as a solution for this problem. The networks that join all the mentioned features together are called cognitive wireless sensor networks (CWSNs). The adoption of cognitive features in WSNs allows the use of these networks in applications with higher reliability, coverage, or quality of service requirements. The improvement of the performance of CWSNs allows their use in critical applications where they could not be used before such as structural monitoring, medical care, military scenarios, or security monitoring systems. Nevertheless, these applications also need other features that cognitive radio does not add directly, such as security. The security in CWSNs has not yet been explored fully because it is not necessary field for the main performance of these networks. Instead, other fields like spectrum sensing or collaboration have been explored deeply. However, the study of security in CWSNs is essential for their growth. Therefore, the main objective of this thesis is to study the impact of some cognitive radio attacks in CWSNs and to implement countermeasures using new cognitive capabilities, especially in the physical layer and considering the limitations of WSNs. Inside the work cycle of this thesis, security strategies against two important kinds of attacks in cognitive networks have been developed. These attacks are the primary user emulator (PUE) attack and the eavesdropping attack. A countermeasure against the PUE attack based on anomaly detection has been developed. Two different algorithms have been implemented: the cumulative sum algorithm and the data clustering algorithm. After the verification of these solutions, they have been compared and the side effects that can disturb their performance have been analyzed. The developed approach against the eavesdropping attack is based on the generation of artificial noise to conceal information messages. The impact of this countermeasure on network resources has also been studied. As a parallel result, a new framework for CWSNs has been developed. This includes a simulator and a real network with cognitive nodes. This framework has been crucial for the implementation and extraction of the results presented in this thesis.
Resumo:
El ámbito de aplicación del DB HR protección frente al ruido excluye las obras de ampliación, modificación, reforma o rehabilitación en los edificios existentes, salvo cuando se trate de rehabilitación integral, concepto definido en la parte I del CTE . Esto supone que en gran parte de las intervenciones realizadas en edificios existentes no es obligatorio llevar a cabo medidas correctoras que aumenten la calidad acústica de dichos edificios. Esto, sumado al hecho de que existen otros condicionantes (plazos de ejecución, otras normativas aplicables, presupuesto, etc.), hace que el estudio de las condiciones acústicas, en obras de rehabilitación, pase a un segundo plano. Sin embargo, cada obra de rehabilitación es una oportunidad de mejorar las deficientes condiciones acústicas de los edificios dentro de lo viable técnica y económicamente, a pesar de que puede que no se lleguen a alcanzar los niveles exigidos en el DB HR. El grado de intervención puede ser muy diverso: desde simples obras de conservación o reforma, a las ampliaciones, cambios de uso, redistribuciones, etc. Aquí se pretende mostrar una herramienta válida para el proyectista en las primeras fases del proyecto de rehabilitación que permita evaluar las distintas posibilidades de intervención en el edificio, siempre y cuando se disponga de información sobre las soluciones constructivas y sus uniones, pudiendo estimarse sus valores de aislamiento acústico en laboratorio, RA y Lnw.
Resumo:
En el diseño de receptores de sistemas de transmisión digital es necesario resolver ciertos problemas de estimación de variables aleatorias o procesos aleatorios a partir de observaciones de los mismos afectadas por distorsión y ruido. En este breve documento abordamos estos problemas de estimación mediante métodos matemáticos absolutamente elementales. La observación básica es que si sabemos encontrar el mínimo de una función cuadrática real de variable compleja, podemos resolver estos problemas de forma sencilla y rigurosa. En particular evitamos el uso del principio de ortogonalidad, que requeriría que el lector estuviera familiarizado con el manejo de un espacio de variables aleatorias como conjunto con producto interno.
Resumo:
El consumo energético de las Redes de Sensores Inalámbricas (WSNs por sus siglas en inglés) es un problema histórico que ha sido abordado desde diferentes niveles y visiones, ya que no solo afecta a la propia supervivencia de la red sino que el creciente uso de dispositivos inteligentes y el nuevo paradigma del Internet de las Cosas hace que las WSNs tengan cada vez una mayor influencia en la huella energética. Debido a la tendencia al alza en el uso de estas redes se añade un nuevo problema, la saturación espectral. Las WSNs operan habitualmente en bandas sin licencia como son las bandas Industrial, Científica y Médica (ISM por sus siglas en inglés). Estas bandas se comparten con otro tipo de redes como Wi-Fi o Bluetooth cuyo uso ha crecido exponencialmente en los últimos años. Para abordar este problema aparece el paradigma de la Radio Cognitiva (CR), una tecnología que permite el acceso oportunista al espectro. La introducción de capacidades cognitivas en las WSNs no solo permite optimizar su eficiencia espectral sino que también tiene un impacto positivo en parámetros como la calidad de servicio, la seguridad o el consumo energético. Sin embargo, por otra parte, este nuevo paradigma plantea algunos retos relacionados con el consumo energético. Concretamente, el sensado del espectro, la colaboración entre los nodos (que requiere comunicación adicional) y el cambio en los parámetros de transmisión aumentan el consumo respecto a las WSN clásicas. Teniendo en cuenta que la investigación en el campo del consumo energético ha sido ampliamente abordada puesto que se trata de una de sus principales limitaciones, asumimos que las nuevas estrategias deben surgir de las nuevas capacidades añadidas por las redes cognitivas. Por otro lado, a la hora de diseñar estrategias de optimización para CWSN hay que tener muy presentes las limitaciones de recursos de estas redes en cuanto a memoria, computación y consumo energético de los nodos. En esta tesis doctoral proponemos dos estrategias de reducción de consumo energético en CWSNs basadas en tres pilares fundamentales. El primero son las capacidades cognitivas añadidas a las WSNs que proporcionan la posibilidad de adaptar los parámetros de transmisión en función del espectro disponible. La segunda es la colaboración, como característica intrínseca de las CWSNs. Finalmente, el tercer pilar de este trabajo es teoría de juegos como algoritmo de soporte a la decisión, ampliamente utilizado en WSNs debido a su simplicidad. Como primer aporte de la tesis se presenta un análisis completo de las posibilidades introducidas por la radio cognitiva en materia de reducción de consumo para WSNs. Gracias a las conclusiones extraídas de este análisis, se han planteado las hipótesis de esta tesis relacionadas con la validez de usar capacidades cognitivas como herramienta para la reducción de consumo en CWSNs. Una vez presentada las hipótesis, pasamos a desarrollar las principales contribuciones de la tesis: las dos estrategias diseñadas para reducción de consumo basadas en teoría de juegos y CR. La primera de ellas hace uso de un juego no cooperativo que se juega mediante pares de jugadores. En la segunda estrategia, aunque el juego continúa siendo no cooperativo, se añade el concepto de colaboración. Para cada una de las estrategias se presenta el modelo del juego, el análisis formal de equilibrios y óptimos y la descripción de la estrategia completa donde se incluye la interacción entre nodos. Con el propósito de probar las estrategias mediante simulación e implementación en dispositivos reales hemos desarrollado un marco de pruebas compuesto por un simulador cognitivo y un banco de pruebas formado por nodos cognitivos capaces de comunicarse en tres bandas ISM desarrollados en el B105 Lab. Este marco de pruebas constituye otra de las aportaciones de la tesis que permitirá el avance en la investigación en el área de las CWSNs. Finalmente, se presentan y discuten los resultados derivados de la prueba de las estrategias desarrolladas. La primera estrategia proporciona ahorros de energía mayores al 65% comparados con una WSN sin capacidades cognitivas y alrededor del 25% si la comparamos con una estrategia cognitiva basada en el sensado periódico del espectro para el cambio de canal de acuerdo a un nivel de ruido fijado. Este algoritmo se comporta de forma similar independientemente del nivel de ruido siempre que éste sea espacialmente uniformemente. Esta estrategia, a pesar de su sencillez, nos asegura el comportamiento óptimo en cuanto a consumo energético debido a la utilización de teoría de juegos en la fase de diseño del comportamiento de los nodos. La estrategia colaborativa presenta mejoras respecto a la anterior en términos de protección frente al ruido en escenarios de ruido más complejos donde aporta una mejora del 50% comparada con la estrategia anterior. ABSTRACT Energy consumption in Wireless Sensor Networks (WSNs) is a known historical problem that has been addressed from different areas and on many levels. But this problem should not only be approached from the point of view of their own efficiency for survival. A major portion of communication traffic has migrated to mobile networks and systems. The increased use of smart devices and the introduction of the Internet of Things (IoT) give WSNs a great influence on the carbon footprint. Thus, optimizing the energy consumption of wireless networks could reduce their environmental impact considerably. In recent years, another problem has been added to the equation: spectrum saturation. Wireless Sensor Networks usually operate in unlicensed spectrum bands such as Industrial, Scientific, and Medical (ISM) bands shared with other networks (mainly Wi-Fi and Bluetooth). To address the efficient spectrum utilization problem, Cognitive Radio (CR) has emerged as the key technology that enables opportunistic access to the spectrum. Therefore, the introduction of cognitive capabilities to WSNs allows optimizing their spectral occupation. Cognitive Wireless Sensor Networks (CWSNs) do not only increase the reliability of communications, but they also have a positive impact on parameters such as the Quality of Service (QoS), network security, or energy consumption. These new opportunities introduced by CWSNs unveil a wide field in the energy consumption research area. However, this also implies some challenges. Specifically, the spectrum sensing stage, collaboration among devices (which requires extra communication), and changes in the transmission parameters increase the total energy consumption of the network. When designing CWSN optimization strategies, the fact that WSN nodes are very limited in terms of memory, computational power, or energy consumption has to be considered. Thus, light strategies that require a low computing capacity must be found. Since the field of energy conservation in WSNs has been widely explored, we assume that new strategies could emerge from the new opportunities presented by cognitive networks. In this PhD Thesis, we present two strategies for energy consumption reduction in CWSNs supported by three main pillars. The first pillar is that cognitive capabilities added to the WSN provide the ability to change the transmission parameters according to the spectrum. The second pillar is that the ability to collaborate is a basic characteristic of CWSNs. Finally, the third pillar for this work is the game theory as a decision-making algorithm, which has been widely used in WSNs due to its lightness and simplicity that make it valid to operate in CWSNs. For the development of these strategies, a complete analysis of the possibilities is first carried out by incorporating the cognitive abilities into the network. Once this analysis has been performed, we expose the hypotheses of this thesis related to the use of cognitive capabilities as a useful tool to reduce energy consumption in CWSNs. Once the analyses are exposed, we present the main contribution of this thesis: the two designed strategies for energy consumption reduction based on game theory and cognitive capabilities. The first one is based on a non-cooperative game played between two players in a simple and selfish way. In the second strategy, the concept of collaboration is introduced. Despite the fact that the game used is also a non-cooperative game, the decisions are taken through collaboration. For each strategy, we present the modeled game, the formal analysis of equilibrium and optimum, and the complete strategy describing the interaction between nodes. In order to test the strategies through simulation and implementation in real devices, we have developed a CWSN framework composed by a CWSN simulator based on Castalia and a testbed based on CWSN nodes able to communicate in three different ISM bands. We present and discuss the results derived by the energy optimization strategies. The first strategy brings energy improvement rates of over 65% compared to WSN without cognitive techniques. It also brings energy improvement rates of over 25% compared with sensing strategies for changing channels based on a decision threshold. We have also seen that the algorithm behaves similarly even with significant variations in the level of noise while working in a uniform noise scenario. The collaborative strategy presents improvements respecting the previous strategy in terms of noise protection when the noise scheme is more complex where this strategy shows improvement rates of over 50%.
Resumo:
Los sistemas de imagen por ultrasonidos son hoy una herramienta indispensable en aplicaciones de diagnóstico en medicina y son cada vez más utilizados en aplicaciones industriales en el área de ensayos no destructivos. El array es el elemento primario de estos sistemas y su diseño determina las características de los haces que se pueden construir (forma y tamaño del lóbulo principal, de los lóbulos secundarios y de rejilla, etc.), condicionando la calidad de las imágenes que pueden conseguirse. En arrays regulares la distancia máxima entre elementos se establece en media longitud de onda para evitar la formación de artefactos. Al mismo tiempo, la resolución en la imagen de los objetos presentes en la escena aumenta con el tamaño total de la apertura, por lo que una pequeña mejora en la calidad de la imagen se traduce en un aumento significativo del número de elementos del transductor. Esto tiene, entre otras, las siguientes consecuencias: Problemas de fabricación de los arrays por la gran densidad de conexiones (téngase en cuenta que en aplicaciones típicas de imagen médica, el valor de la longitud de onda es de décimas de milímetro) Baja relación señal/ruido y, en consecuencia, bajo rango dinámico de las señales por el reducido tamaño de los elementos. Complejidad de los equipos que deben manejar un elevado número de canales independientes. Por ejemplo, se necesitarían 10.000 elementos separados λ 2 para una apertura cuadrada de 50 λ. Una forma sencilla para resolver estos problemas existen alternativas que reducen el número de elementos activos de un array pleno, sacrificando hasta cierto punto la calidad de imagen, la energía emitida, el rango dinámico, el contraste, etc. Nosotros planteamos una estrategia diferente, y es desarrollar una metodología de optimización capaz de hallar de forma sistemática configuraciones de arrays de ultrasonido adaptados a aplicaciones específicas. Para realizar dicha labor proponemos el uso de los algoritmos evolutivos para buscar y seleccionar en el espacio de configuraciones de arrays aquellas que mejor se adaptan a los requisitos fijados por cada aplicación. En la memoria se trata el problema de la codificación de las configuraciones de arrays para que puedan ser utilizados como individuos de la población sobre la que van a actuar los algoritmos evolutivos. También se aborda la definición de funciones de idoneidad que permitan realizar comparaciones entre dichas configuraciones de acuerdo con los requisitos y restricciones de cada problema de diseño. Finalmente, se propone emplear el algoritmo multiobjetivo NSGA II como herramienta primaria de optimización y, a continuación, utilizar algoritmos mono-objetivo tipo Simulated Annealing para seleccionar y retinar las soluciones proporcionadas por el NSGA II. Muchas de las funciones de idoneidad que definen las características deseadas del array a diseñar se calculan partir de uno o más patrones de radiación generados por cada solución candidata. La obtención de estos patrones con los métodos habituales de simulación de campo acústico en banda ancha requiere tiempos de cálculo muy grandes que pueden hacer inviable el proceso de optimización con algoritmos evolutivos en la práctica. Como solución, se propone un método de cálculo en banda estrecha que reduce en, al menos, un orden de magnitud el tiempo de cálculo necesario Finalmente se presentan una serie de ejemplos, con arrays lineales y bidimensionales, para validar la metodología de diseño propuesta comparando experimentalmente las características reales de los diseños construidos con las predicciones del método de optimización. ABSTRACT Currently, the ultrasound imaging system is one of the powerful tools in medical diagnostic and non-destructive testing for industrial applications. Ultrasonic arrays design determines the beam characteristics (main and secondary lobes, beam pattern, etc...) which assist to enhance the image resolution. The maximum distance between the elements of the array should be the half of the wavelength to avoid the formation of grating lobes. At the same time, the image resolution of the target in the region of interest increases with the aperture size. Consequently, the larger number of elements in arrays assures the better image quality but this improvement contains the following drawbacks: Difficulties in the arrays manufacturing due to the large connection density. Low noise to signal ratio. Complexity of the ultrasonic system to handle large number of channels. The easiest way to resolve these issues is to reduce the number of active elements in full arrays, but on the other hand the image quality, dynamic range, contrast, etc, are compromised by this solutions In this thesis, an optimization methodology able to find ultrasound array configurations adapted for specific applications is presented. The evolutionary algorithms are used to obtain the ideal arrays among the existing configurations. This work addressed problems such as: the codification of ultrasound arrays to be interpreted as individuals in the evolutionary algorithm population and the fitness function and constraints, which will assess the behaviour of individuals. Therefore, it is proposed to use the multi-objective algorithm NSGA-II as a primary optimization tool, and then use the mono-objective Simulated Annealing algorithm to select and refine the solutions provided by the NSGA I I . The acoustic field is calculated many times for each individual and in every generation for every fitness functions. An acoustic narrow band field simulator, where the number of operations is reduced, this ensures a quick calculation of the acoustic field to reduce the expensive computing time required by these functions we have employed. Finally a set of examples are presented in order to validate our proposed design methodology, using linear and bidimensional arrays where the actual characteristics of the design are compared with the predictions of the optimization methodology.
Resumo:
En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.
Resumo:
A medida que se incrementa la energía de los aceleradores de partículas o iones pesados como el CERN o GSI, de los reactores de fusión como JET o ITER, u otros experimentos científicos, se va haciendo cada vez más imprescindible el uso de técnicas de manipulación remota para la interacción con el entorno sujeto a la radiación. Hasta ahora la tasa de dosis radioactiva en el CERN podía tomar valores cercanos a algunos mSv para tiempos de enfriamiento de horas, que permitían la intervención humana para tareas de mantenimiento. Durante los primeros ensayos con plasma en JET, se alcanzaban valores cercanos a los 200 μSv después de un tiempo de enfriamiento de 4 meses y ya se hacía extensivo el uso de técnicas de manipulación remota. Hay una clara tendencia al incremento de los niveles de radioactividad en el futuro en este tipo de instalaciones. Un claro ejemplo es ITER, donde se esperan valores de 450 Sv/h en el centro del toroide a los 11 días de enfriamiento o los nuevos niveles energéticos del CERN que harán necesario una apuesta por niveles de mantenimiento remotos. En estas circunstancias se enmarca esta tesis, que estudia un sistema de control bilateral basado en fuerza-posición, tratando de evitar el uso de sensores de fuerza/par, cuyo contenido electrónico los hace especialmente sensitivos en estos ambientes. El contenido de este trabajo se centra en la teleoperación de robots industriales, que debido a su reconocida solvencia y facilidad para ser adaptados a estos entornos, unido al bajo coste y alta disponibilidad, les convierte en una alternativa interesante para tareas de manipulación remota frente a costosas soluciones a medida. En primer lugar se considera el problema cinemático de teleoperación maestro-esclavo de cinemática disimilar y se desarrolla un método general para la solución del problema en el que se incluye el uso de fuerzas asistivas para guiar al operador. A continuación se explican con detalle los experimentos realizados con un robot ABB y que muestran las dificultades encontradas y recomendaciones para solventarlas. Se concluye el estudio cinemático con un método para el encaje de espacios de trabajo entre maestro y esclavo disimilares. Posteriormente se mira hacia la dinámica, estudiándose el modelado de robots con vistas a obtener un método que permita estimar las fuerzas externas que actúan sobre los mismos. Durante la caracterización del modelo dinámico, se realizan varios ensayos para tratar de encontrar un compromiso entre complejidad de cálculo y error de estimación. También se dan las claves para modelar y caracterizar robots con estructura en forma de paralelogramo y se presenta la arquitectura de control deseada. Una vez obtenido el modelo completo del esclavo, se investigan diferentes alternativas que permitan una estimación de fuerzas externas en tiempo real, minimizando las derivadas de la posición para minimizar el ruido. Se comienza utilizando observadores clásicos del estado para ir evolucionando hasta llegar al desarrollo de un observador de tipo Luenberger-Sliding cuya implementación es relativamente sencilla y sus resultados contundentes. También se analiza el uso del observador propuesto durante un control bilateral simulado en el que se compara la realimentación de fuerzas obtenida con las técnicas clásicas basadas en error de posición frente a un control basado en fuerza-posición donde la fuerza es estimada y no medida. Se comprueba como la solución propuesta da resultados comparables con las arquitecturas clásicas y sin embargo introduce una alternativa para la teleoperación de robots industriales cuya teleoperación en entornos radioactivos sería imposible de otra manera. Finalmente se analizan los problemas derivados de la aplicación práctica de la teleoperación en los escenarios mencionados anteriormente. Debido a las condiciones prohibitivas para todo equipo electrónico, los sistemas de control se deben colocar a gran distancia de los manipuladores, dando lugar a longitudes de cable de centenares de metros. En estas condiciones se crean sobretensiones en controladores basados en PWM que pueden ser destructivas para el sistema formado por control, cableado y actuador, y por tanto, han de ser eliminadas. En este trabajo se propone una solución basada en un filtro LC comercial y se prueba de forma extensiva que su inclusión no produce efectos negativos sobre el control del actuador. ABSTRACT As the energy on the particle accelerators or heavy ion accelerators such as CERN or GSI, fusion reactors such as JET or ITER, or other scientific experiments is increased, it is becoming increasingly necessary to use remote handling techniques to interact with the remote and radioactive environment. So far, the dose rate at CERN could present values near several mSv for cooling times on the range of hours, which allowed human intervention for maintenance tasks. At JET, they measured values close to 200 μSv after a cooling time of 4 months and since then, the remote handling techniques became usual. There is a clear tendency to increase the radiation levels in the future. A clear example is ITER, where values of 450 Sv/h are expected in the centre of the torus after 11 days of cooling. Also, the new energetic levels of CERN are expected to lead to a more advanced remote handling means. In these circumstances this thesis is framed, studying a bilateral control system based on force-position, trying to avoid the use of force/torque sensors, whose electronic content makes them very sensitive in these environments. The contents of this work are focused on teleoperating industrial robots, which due its well-known reliability, easiness to be adapted to these environments, cost-effectiveness and high availability, are considered as an interesting alternative to expensive custom-made solutions for remote handling tasks. Firstly, the kinematic problem of teloperating master and slave with dissimilar kinematics is analysed and a new general approach for solving this issue is presented. The solution includes using assistive forces in order to guide the human operator. Coming up next, I explain with detail the experiments accomplished with an ABB robot that show the difficulties encountered and the proposed solutions. This section is concluded with a method to match the master’s and slave’s workspaces when they present dissimilar kinematics. Later on, the research studies the dynamics, with special focus on robot modelling with the purpose of obtaining a method that allows to estimate external forces acting on them. During the characterisation of the model’s parameters, a set of tests are performed in order to get to a compromise between computational complexity and estimation error. Key points for modelling and characterising robots with a parallelogram structure are also given, and the desired control architecture is presented. Once a complete model of the slave is obtained, different alternatives for external force estimation are review to be able to predict forces in real time, minimizing the position differentiation to minimize the estimation noise. The research starts by implementing classic state observers and then it evolves towards the use of Luenberger- Sliding observers whose implementation is relatively easy and the results are convincing. I also analyse the use of proposed observer during a simulated bilateral control on which the force feedback obtained with the classic techniques based on the position error is compared versus a control architecture based on force-position, where the force is estimated instead of measured. I t is checked how the proposed solution gives results comparable with the classical techniques and however introduces an alternative method for teleoperating industrial robots whose teleoperation in radioactive environments would have been impossible in a different way. Finally, the problems originated by the practical application of teleoperation in the before mentioned scenarios are analysed. Due the prohibitive conditions for every electronic equipment, the control systems should be placed far from the manipulators. This provokes that the power cables that fed the slaves devices can present lengths of hundreds of meters. In these circumstances, overvoltage waves are developed when implementing drives based on PWM technique. The occurrence of overvoltage is very dangerous for the system composed by drive, wiring and actuator, and has to be eliminated. During this work, a solution based on commercial LC filters is proposed and it is extensively proved that its inclusion does not introduce adverse effects into the actuator’s control.
Resumo:
Esta tesis recoje un trabajo experimental centrado en profundizar sobre el conocimiento de los bloques detectores monolíticos como alternativa a los detectores segmentados para tomografía por emisión de positrones (Positron Emission Tomography, PET). El trabajo llevado a cabo incluye el desarrollo, la caracterización, la puesta a punto y la evaluación de prototipos demostradores PET utilizando bloques monolíticos de ortosilicato de lutecio ytrio dopado con cerio (Cerium-Doped Lutetium Yttrium Orthosilicate, LYSO:Ce) usando sensores compatibles con altos campos magnéticos, tanto fotodiodos de avalancha (Avalanche Photodiodes, APDs) como fotomultiplicadores de silicio (Silicon Photomultipliers, SiPMs). Los prototipos implementados con APDs se construyeron para estudiar la viabilidad de un prototipo PET de alta sensibilidad previamente simulado, denominado BrainPET. En esta memoria se describe y caracteriza la electrónica frontal integrada utilizada en estos prototipos junto con la electrónica de lectura desarrollada específicamente para los mismos. Se muestran los montajes experimentales para la obtención de las imágenes tomográficas PET y para el entrenamiento de los algoritmos de red neuronal utilizados para la estimación de las posiciones de incidencia de los fotones γ sobre la superficie de los bloques monolíticos. Con el prototipo BrainPET se obtuvieron resultados satisfactorios de resolución energética (13 % FWHM), precisión espacial de los bloques monolíticos (~ 2 mm FWHM) y resolución espacial de la imagen PET de 1,5 - 1,7 mm FWHM. Además se demostró una capacidad resolutiva en la imagen PET de ~ 2 mm al adquirir simultáneamente imágenes de fuentes radiactivas separadas a distancias conocidas. Sin embargo, con este prototipo se detectaron también dos limitaciones importantes. En primer lugar, se constató una falta de flexibilidad a la hora de trabajar con un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) cuyo diseño electrónico no era propio sino comercial, unido al elevado coste que requieren las modificaciones del diseño de un ASIC con tales características. Por otra parte, la caracterización final de la electrónica integrada del BrainPET mostró una resolución temporal con amplio margen de mejora (~ 13 ns FWHM). Tomando en cuenta estas limitaciones obtenidas con los prototipos BrainPET, junto con la evolución tecnológica hacia matrices de SiPM, el conocimiento adquirido con los bloques monolíticos se trasladó a la nueva tecnología de sensores disponible, los SiPMs. A su vez se inició una nueva estrategia para la electrónica frontal, con el ASIC FlexToT, un ASIC de diseño propio basado en un esquema de medida del tiempo sobre umbral (Time over Threshold, ToT), en donde la duración del pulso de salida es proporcional a la energía depositada. Una de las características más interesantes de este esquema es la posibilidad de manejar directamente señales de pulsos digitales, en lugar de procesar la amplitud de las señales analógicas. Con esta arquitectura electrónica se sustituyen los conversores analógicos digitales (Analog to Digital Converter, ADCs) por conversores de tiempo digitales (Time to Digital Converter, TDCs), pudiendo implementar éstos de forma sencilla en matrices de puertas programmable ‘in situ’ (Field Programmable Gate Array, FPGA), reduciendo con ello el consumo y la complejidad del diseño. Se construyó un nuevo prototipo demostrador FlexToT para validar dicho ASIC para bloques monolíticos o segmentados. Se ha llevado a cabo el diseño y caracterización de la electrónica frontal necesaria para la lectura del ASIC FlexToT, evaluando su linealidad y rango dinámico, el comportamiento frente a ruido así como la no linealidad diferencial obtenida con los TDCs implementados en la FPGA. Además, la electrónica presentada en este trabajo es capaz de trabajar con altas tasas de actividad y de discriminar diferentes centelleadores para aplicaciones phoswich. El ASIC FlexToT proporciona una excelente resolución temporal en coincidencia para los eventos correspondientes con el fotopico de 511 keV (128 ps FWHM), solventando las limitaciones de resolución temporal del prototipo BrainPET. Por otra parte, la resolución energética con bloques monolíticos leidos por ASICs FlexToT proporciona una resolución energética de 15,4 % FWHM a 511 keV. Finalmente, se obtuvieron buenos resultados en la calidad de la imagen PET y en la capacidad resolutiva del demostrador FlexToT, proporcionando resoluciones espaciales en el centro del FoV en torno a 1,4 mm FWHM. ABSTRACT This thesis is focused on the development of experimental activities used to deepen the knowledge of monolithic detector blocks as an alternative to segmented detectors for Positron Emission Tomography (PET). It includes the development, characterization, setting up, running and evaluation of PET demonstrator prototypes with monolithic detector blocks of Cerium-doped Lutetium Yttrium Orthosilicate (LYSO:Ce) using magnetically compatible sensors such as Avalanche Photodiodes (APDs) and Silicon Photomultipliers (SiPMs). The prototypes implemented with APDs were constructed to validate the viability of a high-sensitivity PET prototype that had previously been simulated, denominated BrainPET. This work describes and characterizes the integrated front-end electronics used in these prototypes, as well as the electronic readout system developed especially for them. It shows the experimental set-ups to obtain the tomographic PET images and to train neural networks algorithms used for position estimation of photons impinging on the surface of monolithic blocks. Using the BrainPET prototype, satisfactory energy resolution (13 % FWHM), spatial precision of monolithic blocks (~ 2 mm FWHM) and spatial resolution of the PET image (1.5 – 1.7 mm FWHM) in the center of the Field of View (FoV) were obtained. Moreover, we proved the imaging capabilities of this demonstrator with extended sources, considering the acquisition of two simultaneous sources of 1 mm diameter placed at known distances. However, some important limitations were also detected with the BrainPET prototype. In the first place, it was confirmed that there was a lack of flexibility working with an Application Specific Integrated Circuit (ASIC) whose electronic design was not own but commercial, along with the high cost required to modify an ASIC design with such features. Furthermore, the final characterization of the BrainPET ASIC showed a timing resolution with room for improvement (~ 13 ns FWHM). Taking into consideration the limitations obtained with the BrainPET prototype, along with the technological evolution in magnetically compatible devices, the knowledge acquired with the monolithic blocks were transferred to the new technology available, the SiPMs. Moreover, we opted for a new strategy in the front-end electronics, the FlexToT ASIC, an own design ASIC based on a Time over Threshold (ToT) scheme. One of the most interesting features underlying a ToT architecture is the encoding of the analog input signal amplitude information into the duration of the output signals, delivering directly digital pulses. The electronic architecture helps substitute the Analog to Digital Converters (ADCs) for Time to Digital Converters (TDCs), and they are easily implemented in Field Programmable Gate Arrays (FPGA), reducing the consumption and the complexity of the design. A new prototype demonstrator based on SiPMs was implemented to validate the FlexToT ASIC for monolithic or segmented blocks. The design and characterization of the necessary front-end electronic to read-out the signals from the ASIC was carried out by evaluating its linearity and dynamic range, its performance with an external noise signal, as well as the differential nonlinearity obtained with the TDCs implemented in the FPGA. Furthermore, the electronic presented in this work is capable of working at high count rates and discriminates different phoswich scintillators. The FlexToT ASIC provides an excellent coincidence time resolution for events that correspond to 511 keV photopeak (128 ps FWHM), resolving the limitations of the poor timing resolution of the BrainPET prototype. Furthermore, the energy resolution with monolithic blocks read by FlexToT ASICs provides an energy resolution of 15.4 % FWHM at 511 keV. Finally, good results were obtained in the quality of the PET image and the resolving power of the FlexToT demonstrator, providing spatial resolutions in the centre of the FoV at about 1.4 mm FWHM.