51 resultados para Control de drogas y narcóticos
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.
Resumo:
La presente Tesis está orientada al análisis de la supervisión multidistribuida de tres procesos agroalimentarios: el secado solar, el transporte refrigerado y la fermentación de café, a través de la información obtenida de diferentes dispositivos de adquisición de datos, que incorporan sensores, así como el desarrollo de metodologías de análisis de series temporales, modelos y herramientas de control de procesos para la ayuda a la toma de decisiones en las operaciones de estos entornos. En esta tesis se han utilizado: tarjetas RFID (TemTrip®) con sistema de comunicación por radiofrecuencia y sensor de temperatura; el registrador (i-Button®), con sensor integrado de temperatura y humedad relativa y un tercer prototipo empresarial, módulo de comunicación inalámbrico Nlaza, que integra un sensor de temperatura y humedad relativa Sensirion®. Estos dispositivos se han empleado en la conformación de redes multidistribuidas de sensores para la supervisión de: A) Transportes de producto hortofrutícola realizados en condiciones comerciales reales, que son: dos transportes terrestre de producto de IV gama desde Murcia a Madrid; transporte multimodal (barco-barco) de limones desde Montevideo (Uruguay) a Cartagena (España) y transporte multimodal (barco-camión) desde Montevideo (Uruguay) a Verona (Italia). B) dos fermentaciones de café realizadas en Popayán (Colombia) en un beneficiadero. Estas redes han permitido registrar la dinámica espacio-temporal de temperaturas y humedad relativa de los procesos estudiados. En estos procesos de transporte refrigerado y fermentación la aplicación de herramientas de visualización de datos y análisis de conglomerados, han permitido identificar grupos de sensores que presentan patrones análogos de sus series temporales, caracterizando así zonas con dinámicas similares y significativamente diferentes del resto y permitiendo definir redes de sensores de menor densidad cubriendo las diferentes zonas identificadas. Las metodologías de análisis complejo de las series espacio-temporales (modelos psicrométricos, espacio de fases bidimensional e interpolaciones espaciales) permitieron la cuantificación de la variabilidad del proceso supervisado tanto desde el punto de vista dinámico como espacial así como la identificación de eventos. Constituyendo así herramientas adicionales de ayuda a la toma de decisiones en el control de los procesos. Siendo especialmente novedosa la aplicación de la representación bidimensional de los espacios de fases en el estudio de las series espacio-temporales de variables ambientales en aplicaciones agroalimentarias, aproximación que no se había realizado hasta el momento. En esta tesis también se ha querido mostrar el potencial de un sistema de control basado en el conocimiento experto como es el sistema de lógica difusa. Se han desarrollado en primer lugar, los modelos de estimación del contenido en humedad y las reglas semánticas que dirigen el proceso de control, el mejor modelo se ha seleccionado mediante un ensayo de secado realizado sobre bolas de hidrogel como modelo alimentario y finalmente el modelo se ha validado mediante un ensayo en el que se deshidrataban láminas de zanahoria. Los resultados sugirieron que el sistema de control desarrollado, es capaz de hacer frente a dificultades como las variaciones de temperatura día y noche, consiguiendo un producto con buenas características de calidad comparables a las conseguidas sin aplicar ningún control sobre la operación y disminuyendo así el consumo energético en un 98% con respecto al mismo proceso sin control. La instrumentación y las metodologías de análisis de datos implementadas en esta Tesis se han mostrado suficientemente versátiles y transversales para ser aplicadas a diversos procesos agroalimentarios en los que la temperatura y la humedad relativa sean criterios de control en dichos procesos, teniendo una aplicabilidad directa en el sector industrial ABSTRACT This thesis is focused on the analysis of multi-distributed supervision of three agri-food processes: solar drying, refrigerated transport and coffee fermentation, through the information obtained from different data acquisition devices with incorporated sensors, as well as the development of methodologies for analyzing temporary series, models and tools to control processes in order to help in the decision making in the operations within these environments. For this thesis the following has been used: RFID tags (TemTrip®) with a Radiofrequency ID communication system and a temperature sensor; the recorder (i-Button®), with an integrated temperature and relative humidity and a third corporate prototype, a wireless communication module Nlaza, which has an integrated temperature and relative humidity sensor, Sensirion®. These devices have been used in creating three multi-distributed networks of sensors for monitoring: A) Transport of fruits and vegetables made in real commercial conditions, which are: two land trips of IV range products from Murcia to Madrid; multimodal transport (ship - ship) of lemons from Montevideo (Uruguay) to Cartagena (Spain) and multimodal transport (ship - truck) from Montevideo (Uruguay) to Verona (Italy). B) Two coffee fermentations made in Popayan (Colombia) in a coffee processing plant. These networks have allowed recording the time space dynamics of temperatures and relative humidity of the processed under study. Within these refrigerated transport and fermentation processes, the application of data display and cluster analysis tools have allowed identifying sensor groups showing analogical patterns of their temporary series; thus, featuring areas with similar and significantly different dynamics from the others and enabling the definition of lower density sensor networks covering the different identified areas. The complex analysis methodologies of the time space series (psychrometric models, bi-dimensional phase space and spatial interpolation) allowed quantifying the process variability of the supervised process both from the dynamic and spatial points of view; as well as the identification of events. Thus, building additional tools to aid decision-making on process control brought the innovative application of the bi-dimensional representation of phase spaces in the study of time-space series of environmental variables in agri-food applications, an approach that had not been taken before. This thesis also wanted to show the potential of a control system based on specialized knowledge such as the fuzzy logic system. Firstly, moisture content estimation models and semantic rules directing the control process have been developed, the best model has been selected by an drying assay performed on hydrogel beads as food model; and finally the model has been validated through an assay in which carrot sheets were dehydrated. The results suggested that the control system developed is able to cope with difficulties such as changes in temperature daytime and nighttime, getting a product with good quality features comparable to those features achieved without applying any control over the operation and thus decreasing consumption energy by 98% compared to the same uncontrolled process. Instrumentation and data analysis methodologies implemented in this thesis have proved sufficiently versatile and cross-cutting to apply to several agri-food processes in which the temperature and relative humidity are the control criteria in those processes, having a direct effect on the industry sector.
Resumo:
En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.
Resumo:
Este proyecto consiste en el análisis de las técnicas de compresión de gas natural, tanto técnica como económicamente, así como el diseño de la estación de compresión localizada en Irún, provincia de Guipúzcoa, con la mejor opción. El proyecto define el interés de este tipo de instalaciones, su funcionamiento, detalla los distintos sistemas de los que consta la estación de compresión y estudia la rentabilidad económica en base al presupuesto de la instalación y a la retribución de las actividades reguladas del sector gasista. Los distintos sistemas de los que consta la estación de compresión, y que forman parte del contenido del proyecto son, todos los necesarios para el funcionamiento de la estación: sistemas mecánicos, instrumentación y control, obra civil y sistemas auxiliares (sistemas eléctricos, de seguridad y antiintrusión).
Resumo:
Los programas de Gestión Integrada de Plagas (GIP) promueven el uso de estrategias de control que sean respetuosas con el medio ambiente, sin embargo el uso de insecticidas en los cultivos hortícolas sigue siendo necesario para el control de determinadas plagas, como es el caso de la mosca blanca Bemisia tabaci (Gennadius). Por ello, el objetivo de esta tesis es el estudio de la integración de las tres estrategias de control más empleadas hoy en día para el control de plagas: el control biológico, el físico y el químico. Una primera parte de este trabajo ha consistido en el estudio de los efectos letales y subletales de once insecticidas, aplicados a la dosis máxima de campo, sobre los enemigos naturales Eretmocerus mundus Mercet y Amblyseius swirskii Athias-Henriot, mediante ensayos de laboratorio y persistencia (laboratorio extendido). Para la evaluación de la toxicidad de los insecticidas sobre los estados de vida más protegidos de estos enemigos naturales, se trataron bajo la Torre de Potter las pupas de E. mundus y los huevos de A. swirskii. Además, se llevaron a cabo ensayos de contacto residual para determinar los efectos letales y subletales de estos insecticidas sobre el estado adulto de ambas especies de enemigos naturales. Para ello, los pesticidas se aplicaron sobre placas de cristal (laboratorio) o sobre plantas (laboratorio extendido: persistencia). Los resultados mostraron que los insecticidas flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen y spirotetramat eran compatibles con el estado de pupa de E. mundus (OILB 1: Inocuos). Sin embargo, abamectina, deltametrina y emamectina fueron categorizadas como ligeramente tóxicas (OILB 2) al causar efectos deletéreos. Los dos pesticidas más tóxicos fueron spinosad y sulfoxaflor, los cuales redujeron significativamente la emergencia de las pupas tratadas (OILB 4: Tóxicos). Flonicamida, flubendiamida, metoxifenocida y spiromesifen fueron compatibles con el estado adulto de E. mundus (OILB 1: Inocuos). Abamectina, deltametrina, emamectina, metaflumizona y spiromesifen pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Al contrario, spinosad y sulfoxaflor no resultaron ser compatibles (OILB D: Persistentes), aunque la realización de ensayos adicionales es necesaria para ver los efectos de los mismos en campo. Todos los insecticidas estudiados, excepto el spirotetramat (OILB 2: Ligeramente tóxico), fueron selectivos para el estado de huevo de A. swirskii (OILB 1: Inocuos). Flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen, spirotetramat y sulfoxaflor, fueron compatibles con el estado adulto de A. swirskii (OILB 1: Inocuos). Abamectina, deltametrina, emamectina y spinosad pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Entre las nuevas estrategias de la GIP, los plásticos y mallas fotoselectivas han demostrado ser una herramienta importante para el control de plagas y enfermedades en cultivos hortícolas protegidos. Por ello, en una segunda parte de este trabajo, se estudiaron tanto los efectos directos, como la combinación de efectos directos y mediados por planta y plaga de ambientes pobres en luz UV, en presencia o ausencia del Virus del rizado amarillo del tomate (TYLCV), sobre E. mundus. En primer lugar, se realizó un ensayo al aire libre para la evaluación de la capacidad de vuelo de E. mundus en cajas tipo túnel (1 x 0,6 x 0,6 m) cubiertas con distintas barreras absorbentes de luz UV. Se detectó un efecto directo en la capacidad de orientación de E. mundus, debido a que este parasitoide utiliza estímulos visuales para localizar a sus huéspedes, únicamente en las barreras que bloqueaban más del 65% de la luz UV (malla G). En segundo lugar, bajo condiciones de invernadero, se evaluó la combinación de efectos directos y mediados por planta y plaga sobre E. mundus, usando plantas de tomate sanas o infectadas con el TYLCV y cajas (30 x 30 x 60 cm) cubiertas con los distintos plásticos fotoselectivos. En este caso, no se observó ningún efecto en la capacidad benéfica del parasitoide cuando este estaba en contacto con plantas de tomate infestadas con ninfas de B. tabaci, lo que demuestra que este insecto usa estímulos táctiles para encontrar a sus huéspedes a cortas distancias. Además, las diferentes condiciones de radiación UV estudiadas tuvieron cierto impacto en la morfología, fisiología y bioquímica de las plantas de tomate, infestadas o no con el virus de la cuchara, detectándose pequeñas alteraciones en alguno de los parámetros estudiados, como el peso fresco y seco, el contenido en H y el espesor de las cutículas y de las paredes celulares de la epidermis foliar. Por último, no se observaron efectos de la radiación UV mediados por planta, ni en B. tabaci ni en su parasitoide, E. mundus. En una tercera parte, se evaluaron los efectos de una malla tratada con bifentrin sobre ambos enemigos naturales, en ensayos de laboratorio, semicampo y campo. Las mallas tratadas fueron diseñadas originariamente para el control de mosquitos vectores de la malaria, y actualmente se está trabajando para su uso en agricultura, como una nueva estrategia de control de plagas. En ensayos de laboratorio, cuando adultos de E. mundus y A. swirskii se expusieron por contacto durante 72 horas con la malla tratada (cajas de 6 cm diámetro), se registró una alta mortalidad. Sin embargo, en el ensayo de preferencia, estos enemigos naturales no fueron capaces de detectar la presencia de bifentrin y, en aquellos individuos forzados a atravesar la malla tratada, no se observó mortalidad a corto plazo (72 horas). En estudios de semicampo, llevados a cabo bajo condiciones de invernadero en cajas de 25 x 25 x 60 cm de altura, la capacidad benéfica de E. mundus no se vio afectada. Finalmente, en ensayos de campo llevados a cabo en invernaderos comerciales (4000m2) en Almería, A. swirskii no se vio afectado por la presencia en el cultivo de la malla tratada con bifentrin y los niveles de infestación de B. tabaci y F. occidentalis detectados bajo dicha malla, fueron inferiores a los del control. Por último, se ha evaluado la composición de la microflora bacteriana de tres especies de parasitoides, E. mundus, Eretmocerus eremicus Rose & Zolnerowich y Encarsia formosa Gahan, y la influencia de la misma en su susceptibilidad a insecticidas. Se llevó a cabo una extracción total de ADN de los insectos y la región variable V4 del ARNr se amplificó usando cebadores universales bacterianos. Para identificar las secuencias de los géneros bacterianos presentes en los parasitoides, se realizó una Next Generation sequencing (Illumina sequencing). Una vez identificados los géneros bacterianos, el gen ADNr 16S de las Actinobacterias se amplificó del ADN extraído de los insectos, usando cebadores universales bacterianos y específicos de Actinobacterias, y los productos de la Nested PCR fueron clonados para identificar todas las especies del género Arthrobacter. Tres bacterias (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi y A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), próximas a las especies de Arthrobacter presentes en los parasitoides, se obtuvieron de la colección bacteriana del BCCMTM/LMG y se midió su actividad esterasa. Finalmente, se realizaron ensayos con antibióticos (tetraciclina) y de contacto residual con insecticidas (abamectina) para determinar la influencia de las especies de Arthrobacter en la susceptibilidad de E. mundus a insecticidas. Los resultados muestran que este género bacteriano puede afectar a la toxicidad de E. mundus a abamectina, mostrando la importancia de la comunidad microbiana en enemigos naturales, factor que debe ser considerado en los estudios de evaluación de los riesgos de los insecticidas. ABSTRACT Integrated Pest Management (IPM) programs promote the use of control strategies more respectful with the environment; however the use of insecticides in vegetable crops is still needed to control certain pests, such as the whitefly Bemisia tabaci (Gennadius). Therefore, the objective of this work is to study the integration of the three most commonly used pest control strategies nowadays: biological, physical and chemical control. Firstly, the lethal and sublethal effects of eleven insecticides, applied at their maximum field recommended concentration, on the parasitic wasp Eretmocerus mundus Mercet and the predator Amblyseius swirskii Athias-Henriot has been assessed in the laboratory and in persistence tests (extended laboratory). To test the effects of pesticides on the most protected life stage of these natural enemies, E. mundus pupae and A. swirskii eggs were sprayed under a Potter precision spray tower. Laboratory contact tests were therefore conducted to determine the lethal and sublethal effects of these pesticides on the adult stage of these natural enemies. In the residual contact tests the pesticides were applied on glass plates (laboratory) or plants (extended laboratory: persistence). The study showed that the insecticides flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen and spirotetramat were selective for E. mundus pupae (IOBC 1: Harmless). Nevertheless, abamectin, deltamethrin and emamectin were categorized as slightly harmful (IOBC 2) due to the deleterious effects caused. The two most harmful pesticides were spinosad and sulfoxaflor, which significantly reduced the adult emergence from treated pupae (IOBC 4: Harmful). Flonicamid, flubendiamide, methoxyfenozide and spiromesifen were compatible with E. mundus adults (IOBC 1: Harmless). Base on the duration of the harmful activity, abamectin, deltamethrin, emamectin, metaflumizone and spirotetramat could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. On the contrary, spinosad and sulfoxaflor were not compatible (IOBC D: persistent), although additional studies are required to determine their effects under field conditions. All the pesticides tested, except spirotetramat (IOBC 2: Slightly harmful), were selective for A. swirskii eggs (IOBC 1: Harmless). Flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen, spirotetramat and sulfoxaflor were compatible with A. swirskii adults (IOBC 1: Harmless). However, abamectin, deltamethrin, emamectin and spinosad could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. Among new IPM strategies, UV-absorbing photoselective plastic films and nets have been shown to be an important tool for the control of pests and diseases in horticultural protected crops. Because of that, we secondly studied the plant and pest insect-mediated and/or the direct effects on E. mundus under different UV radiation conditions, in presence or absence of the Tomato Yellow Leaf Curl Virus (TYLCV). In the first experiment, performed outdoors, the flight activity of E. mundus was studied in one-chamber tunnels (1 x 0.6 x 0.6 m) covered with different photoselective barriers. Because E. mundus uses visual cues for host location at a long distance, a direct effect on its host location ability was detected, but only in the UV-absorbing barriers blocking more than 65% of the UV light (G net). In a second experiment, the direct and plant and pest insect-mediated effects of different UV radiation conditions on E. mundus were studied, inside cages (30 x 30 x 60 cm) covered with the different UVplastic films and under greenhouse conditions, using healthy or TYLCV-virus infected tomato plants. In this case, not any effect on the beneficial capacity of this parasitoid was detected, proving that he uses tactile cues at a short distance of the host. Moreover, the different UV radiation conditions studied had a certain direct impact in the morphology, physiology and biochemistry of tomato plants infested or not with the TYLCV, and small alterations in some parameters such as fresh and dry weight, H percentage and cuticle and cell wall thickness of epidermal cells of the leaves, were detected. Finally, none plant-mediated UV effects neither in the whitefly B. tabaci nor in their parasitic wasp were found. Thirdly, the effects of a bifenthrin treated net were evaluated in different laboratory, semi-field and field experiments on the natural enemies studied. Treated nets were developed long time ago aiming at the control of the mosquitoes vectors of malaria, and nowadays, there is a great interest on assessing the possibility of their use in agriculture. In laboratory assays, a high mortality was recorded when E. mundus and A. swirskii adults were exposed by contact to the bifenthrin treated net for 72 hours in small cages (12 cm diameter). However, these natural enemies were not able to detect the presence of bifenthrin in a dual-choice test and no short-term mortality (72 hours) was recorded in those individuals that went through the treated net. In semi-field assays, performed under greenhouse conditions with cages of 25 x 25 x 60 cm high, the beneficial capacity of E. mundus was not affected. Finally, in field assays carried out in commercial multispan greenhouses (4000 m2) in Almería, A. swirskii was not affected by the presence of the bifenthrin treated net in the crop and the B. tabaci and F. occidentalis infestation levels were significantly lower than in the control. Finally, the composition of the microflora present in three species of parasitoids, E. mundus, Eretmocerus eremicus Rose & Zolnerowich and Encarsia formosa Gahan, and its influence in their susceptibility to insecticides, have been assessed. A total DNA extraction was performed on insects and universal bacterial primers were used to amplify the variable V4 region of the rRNA. A Next Generation sequencing (Illumina sequencing) was performed to identify the sequences of the bacterial genera present in the parasitic wasps. Once, the bacterial genera were identified, 16S rDNA gene of Actinobacteria were amplified from insects DNA extracts using the universal bacterial and actinobacterial primers, and the nested PCR products, were cloned to identify the Arthrobacter species. Three bacteria (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi and A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), having the closest match with the Arthrobacter species present in the parasitic wasps, were obtained from the BCCMTM/LMG bacteria collection and its esterase activity was measured. Finally, antibiotic and residual contact tests were done to determine the influence of Arthrobacter species in the susceptibility of E. mundus to pesticides (abamectin). The results suggest that this bacterial genus can affect the toxicity of E. mundus to abamectin, which in turn supports the importance of the microbial community in natural enemies that it should be considered as a factor in risk assessment tests of pesticides.
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.
Resumo:
El campo de las redes de sensores inalámbricas ha cobrado gran importancia en esta última década ya que se han abierto diversas líneas de investigación con el fin de poder llevar a la práctica los conceptos y definiciones que envuelven el potencial de esta tecnología, y que está llamada a ser el futuro en la adquisición de datos de cualquier entorno físico de aplicación, mediante una herramienta basada en la autogestión y desatención durante largos periodos de tiempo, capacidad de tomar muestras cuando sea necesario a través de nodos sensores que se caractericen por el ahorro de energía y que puedan ser capaces de trabajar de forma autónoma durante meses, y que el carácter inalámbrico de la red a desplegar facilite las tareas de instalación y mantenimiento. Ello requiere que las condiciones para que una red de sensores inalámbrica sea la forma más viable de monitorizar un determinado entorno se base en ciertos requisitos de diseño, como lo es la baja tasa de transferencia de datos por parte de los nodos (estos deben ser capaces de transmitir la información recolectada desde los sensores y luego permanecer dormidos hasta una nueva adquisición), hardware enfocado al bajo consumo de energía con el fin de evitar cambios en la fuente de energía (baterías) durante largos periodos de tiempo, adaptabilidad al entorno de aplicación, flexibilidad y escalabilidad de la red si la aplicación hace necesario la inclusión de nuevos nodos o la modificación de los ya existentes, sin que ello suponga mayores dificultades en su desarrollo e implementación. El Centro de Electrónica industrial de la Universidad Politécnica de Madrid se incluye dentro de este último grupo, donde se ha diseñado una completa plataforma hardware para redes de sensores inalámbricas, con el fin de investigar las potencialidades, dificultades y retos que supone el realizar un despliegue de nodos inalámbricos en cumplimiento de características primordiales como autonomía, flexibilidad y escalabilidad de la red, además de la autogestión de los dispositivos que forman parte de ella. El presente trabajo de investigación se centra en cubrir estas necesidades, por lo que su principal objetivo es la creación de una plataforma de integración hardware-software que permita explotar todas las potencialidades de la arquitectura Cookies a través de una herramienta que facilite el despliegue, control y mantenimiento de una red de sensores inalámbrica, con el fin último de contar con un sistema total para el prototipado rápido de aplicaciones, soporte de pruebas de nuevos desarrollos y la posibilidad de implementación de dicha plataforma en cualquier entorno real, siendo sólo necesario realizar pequeños ajustes desde el más alto nivel de abstracción para que el sistema sea capaz de adaptarse por sí solo. Para cumplir tales propósitos y lograr una completa integración del sistema conjunto, ha sido necesario fijar principalmente tres líneas de trabajo que se enmarcan dentro de los objetivos específicos del presente proyecto, las cuales se detallan a continuación: Bibliotecas Software modulares: Basada en la filosofía de modularidad y flexibilidad de la plataforma hardware, se hace imprescindible primeramente contar con una plataforma software para el control de todos y cada uno de los elementos que componen al nodo Cookie, a partir de bloques funcionales que permitan gestionar desde el núcleo de procesamiento principal todas las características de la plataforma. Esto permitirá asegurar el control de los recursos hardware y facilitar la utilización de la plataforma desde un nivel más alto de abstracción, sólo con la configuración de parámetros estandarizados para el funcionamiento de la misma. Perfil de aplicación Cookies: Después de contar con bloques software que permitan controlar las características de bajo nivel del nodo inalámbrico, es necesario crear una herramienta para la estandarización de la forma en la que se comunican los dispositivos a nivel de aplicación, con el fin de gestionar las características y atributos de los nodos sensores de forma remota y facilitar el entendimiento entre ellos. Para ello, es necesario fijar ciertas directivas y reglas que permitan homogeneizar la gestión de tareas asociadas a los nodos Cookies, a través del diseño de un perfil de aplicación. Testbed para redes de sensores: Como resultado de las dos líneas anteriores de trabajo, la idea es contar con un instrumento que permita realizar pruebas reales haciendo uso de la plataforma de integración HW-SW, a partir de la gestión de todas las características y potencialidades que ofrece el perfil de aplicación creado y así facilitar el desarrollo de prototipos para aplicaciones basadas en redes de sensores inalámbricas, de forma rápida y eficiente. En este sentido, la idea es contar con un banco de pruebas basado en un despliegue de nodos Cookies que pueda ser controlado desde un ordenador central a través de una interfaz de usuario, desde el cual se lleva a cabo la monitorización y actuación sobre la red inalámbrica. Con el fin de lograr todos los objetivos planteados, ha sido necesario realizar un exhaustivo estudio de la plataforma hardware descrita anteriormente con el fin de conocer la forma en la que interactúan cada uno de los elementos incluidos en los nodos, así como la arquitectura y filosofía de los mismos, para poder llevar a cabo la integración con el software y, como se verá más adelante, realizar ajustes en el hardware para poder implementar correctamente las funcionalidades diseñadas. Por otro lado, ha sido necesario analizar las características de la especificación ZigBee y, sobre todo, las propiedades que posee el módulo de comunicaciones que incluye la plataforma hardware, el ETRX2, con el fin de poder realizar una configuración y gestión adecuada de los nodos a través de la red inalámbrica, aprovechando las posibilidades y recursos que ofrece dicho módulo.
Resumo:
Se exponen aquí los desarrollos llevados a cabo para instalar y hacer operativa una red de Estaciones Permanentes GNSS, en la Comunidad de Madrid, con el fin de generalizar la disponibilidad pública, en todo el ámbito geográfico de la CAM, de las correcciones diferenciales de GNSS, contribuir a la densificación del Marco de Referencia ETRS89, y disponer de una Red GPS de altas prestaciones (GPS, GLONASS y la paulatina entrada GALILEO) con una idónea geometría, para proyectos de investigación en el marco de la CAM, tanto en Postproceso como en Tiempo Real. Se comentan aquí los pasos realizados para su instalación y entrada en operación, el cálculo preciso de sus coordenadas con el software BERNESE, análisis de precisiones y el desarrollo de un test de calidad a fin de comprobación las soluciones que da la red en tiempo real, comprobación de las soluciones en postproceso y comprobación del alcance de precisión del sistema. Crear un entorno de precisión sobre nuevas aplicaciones de Redes GPS de TOPCON en Agricultura de Precisión, Control de Maquinaria y posicionamiento de equipos topográficos para empresas, organismos y particulares de la CAM.
Resumo:
El trabajo realizado ha pretendido desarrollar y caracterizar una solución de revestimiento continuo interior con características de barrera de vapor e higroscopicidad. El objetivo ha sido desarrollar una solución de revestimiento continuo interior, capaz de reducir el riesgo de condensación intersticial en los cerramientos, manteniendo la capacidad de regulación de la humedad del ambiente interior. ESTUDIO DE ANTECEDENTES 1 La condensación intersticial La condensación intersticial se produce cuando la presión de vapor sobrepasa la presión de vapor de saturación en una de las capas internas del cerramiento. El vapor de agua se transfiere de los locales de mayor presión de vapor a los de menor presión. Para la situación de condensación intersticial, en la estación de calentamiento, las presiones de vapor son más elevadas en el interior del edificio que en el exterior. Entonces existe una transferencia de vapor del interior hacia el exterior y es en ese trayecto cuando pueden producirse las condensaciones intersticiales si éste alcanza la temperatura de rocío. Las consecuencias de la condensación intersticial pueden ser varias, desde la degradación de los materiales, como la corrosión de elementos metálicos; la pudrición de productos orgánicos naturales, como la madera, variaciones dimensionales de las fábricas de ladrillo con posibilidad de deformación del cerramiento y de fisuración de los revestimientos continuos. Pueden también producirse fenómenos de corrosión física provocados por la congelación del agua en los elementos porosos del cerramiento. Los revestimientos continuos pueden también estar sujetos a vegetaciones parasitarias por el exterior del cerramiento o de hongos por el interior, por transferencia del agua condensada a las superficies del cerramiento. Los hongos pueden provocar enfermedades principalmente respiratorias o alergias, al alterar la calidad del aire. La condensación intersticial se produce principalmente en situaciones de bajas temperaturas y elevados grados de humedad especifica exterior. Pero las condiciones de temperatura y principalmente de humedad especifica interior tienen también gran influencia en esta situación patológica. Las condiciones de humedad relativa interior dependen de muchos factores como el tipo y uso del edificio, y en caso de vivienda, del número de ocupantes, de las actividades que se desarrollan, pero esencialmente de la temperatura interior y del grado de ventilación. Las soluciones constructivas también tienen influencia en el riesgo de condensaciones. Las soluciones de cerramientos con aislamientos por el interior y con capas impermeables al vapor por el exterior son las más problemáticas. En esta solución constructiva extrema, tenemos prácticamente todo el cerramiento cerca de las temperaturas exteriores, con gran concentración de vapor de agua. El tipo de aislamiento también es importante, los aislamientos con gran desequilibrio higrotérmico, como las lanas minerales, de fibra de madera, o de fibras textiles, caracterizados por el elevado aislamiento y la elevada permeabilidad al vapor, son los que presentan mayor riesgo. Éstos permiten el paso del vapor y producen un salto acentuado de la temperatura. Su colocación por el interior de los cerramientos incrementa aún más el riesgo de condensaciones. Estos materiales de aislamiento también se caracterizan por tener una menor energía primaria asociada a su fabricación. Por lo tanto merecen una atención especial en la búsqueda de soluciones sostenibles. Así mismo, también puede existir riesgo de condensaciones con aquellos aislamientos de menor permeabilidad al vapor, como los poliméricos o las espumas de vidrio, pero deficientemente aplicados, permitiendo el paso del vapor de agua por las juntas o en los encuentros con forjados, pilares o huecos. La condensación de agua en los aislamientos caracterizados por una elevada permeabilidad al vapor es la situación más problemática porque, además de poder conducir a la pudrición de aislamientos de origen orgánico (como los de fibra de madera), conduce a una disminución del aislamiento del cerramiento y al consecuente incremento del consumo de energía en la obtención del confort térmico. Existen un conjunto de reglas y de soluciones constructivas que pueden reducir el riesgo de condensaciones intersticiales como la colocación de materiales sucesivamente más permeables al vapor, o más aislantes, del interior al exterior. XXXIII Revestimientos exteriores discontinuos y ventilados y aislamientos aplicados por el exterior es la solución extrema de este principio. La aplicación de aislamientos impermeables al vapor es otra solución, siendo necesario que se garantice que las juntas de las placas del aislamiento sean estancas, así como los encuentros con los forjados, pilares y huecos. Otra solución es la aplicación de cerramientos dobles con cámara de aire ventilada, teniendo el cuidado de ventilar solamente la parte fría del cerramiento. Es necesario en estas situaciones, que se garantice que el aislamiento se encuentra aplicado en la cara exterior del ladrillo interior del cerramiento. También es importante controlar el grado de ventilación de la cámara para que no se produzca la pérdida de la resistencia térmica de la hoja de ladrillo exterior. La aplicación de barreras de vapor en la parte caliente del cerramiento es una solución que garantiza la reducción del flujo del vapor del interior hacia el exterior y consecuentemente contribuye a la reducción de la presión de vapor en su lado exterior y en la parte fría del cerramiento. 2 La normativa La normativa española, el Código Técnico de la Edificación de 2006, en su capítulo Ahorro de Energía, establece que no está permitida en ninguna situación, la condensación en el aislamiento. Todavía existiendo condensaciones en otras capas del cerramiento, en la estación de calentamiento, éstas no pueden ser mayores que la evaporación en la estación de enfriamiento. La misma normativa determina que si existe una barrera de vapor en la parte caliente del cerramiento no será necesario comprobar las condiciones anteriores. La normativa portuguesa, el Regulamento das Características do Comportamento Térmico dos Edifícios, de 2006, no tiene ninguna exigencia relativa a las condensaciones intersticiales. Sus autores defienden que en Portugal no es un fenómeno que pueda tener consecuencias graves en los elementos constructivos o en el consumo de energía. En la norma EN 13788 de 2001 están definidos los métodos más comunes de verificación de las condensaciones y de la evaporación y están basados en el Diagrama de Glaser. En base a esta norma es posible verificar el riesgo de condensaciones superficiales y la posibilidad de desarrollo de hongos en la superficie interior del cerramiento. Pero también permite evaluar el riesgo de condensaciones debido a la difusión de vapor de agua. En este método se considera que el agua incorporada en la construcción ha secado, y es aplicable en situaciones en que sean insignificantes los fenómenos de alteración de conductividad térmica con la humedad, la liberación y absorción de calor, alteración de las propiedades de los materiales con la humedad, succión capilar y transferencia de humedad líquida en los materiales, circulación de aire a través de grietas, y la capacidad higroscópica en los materiales. Me resulta extraño que la misma norma establezca que el método no debe ser utilizado para la comprobación de la existencia de condensaciones, sino solamente como método comparativo de diferentes soluciones constructivas o condiciones ambientales. Más recientemente, con la norma EN 15026 de 2007, se ha introducido una alteración en el método de verificación. Mientras que en base a la norma 13788 la verificación se realiza en régimen estacionario, y solamente considerando algunas propiedades de los materiales como la resistencia térmica (R) y el coeficiente de resistencia a la difusión de vapor de agua (μ), la norma EN 15026, determina que se realice en régimen variable y que otros fenómenos físicos sean considerados. Con respecto a la temperatura, el almacenamiento de calor en materiales secos o húmedos, la transferencia de calor con la transmitancia térmica dependiente de la cantidad de agua presente en los materiales, transferencia de calor latente por difusión de vapor de agua con cambio de fase. Con respecto a la humedad, el almacenamiento de humedad por adsorción y desorción de vapor de agua y fuerzas capilares. Transporte de humedad por difusión de vapor de agua, transporte de agua líquida por difusión de superficie y conducción capilar. 3 Barreras de vapor Las barreras de vapor se caracterizan por una reducida permeancia al vapor, que de acuerdo con la normativa española NBE 79 es inferior a 0,1g /MNs o resistencia superior a 10 MNs/g. (o permeancia inferior a 1,152 g/mmHg, o resistencia al vapor mayor que 0,86 mmHg∙m2∙día /g). Esta permeancia al vapor corresponde a una capa de aire de difusión equivalente (Sd) de 215 cm o 2,15 metros. XXXV Todos los materiales pueden alcanzar estos valores de resistencia al vapor siempre que se utilicen con grandes espesores, pero los que más interesan son los que puedan tener esa característica con pequeños espesores. Existen otras clasificaciones, como la del CSTC de la Bélgica que divide los materiales de acuerdo a su permeancia al vapor. Están definidas 4 categorías de barreras de vapor E1, E2, E3, E4. La categoría E1 para los materiales con - Sd entre 2 y 5 metros, E2 – con Sd entre 5 y 25 metros y 3 - con Sd entre 25 y 200 metros y finalmente E4 para valores de Sd superiores a 200 metros. Estos materiales pueden ser de diferentes tipos, y con diferentes aplicaciones. Las pinturas al esmalte o emulsiones bituminosas, los films de polietileno o de aluminio, y las membranas de betún o vinílicas son algunos ejemplos de productos con estas características y que se utilizan con ese fin. Su aplicación puede realizarse en la superficie interior del cerramiento como las pinturas al esmalte o en la cámara de aire como los otros tipos mencionados anteriormente. En todo caso deben ser colocados en la parte caliente del cerramiento, por el interior del aislamiento. Las pinturas al esmalte, los barnices, o las membranas vinílicas, cuando son aplicados sobre el revestimiento interior, presentan el problema de quitar la capacidad higroscópica del revestimiento, sea de yeso, mortero de cemento o incluso de madera. Las emulsiones de betún o las membranas de betún son generalmente aplicadas en la cara exterior de la hoja interior del cerramiento, cuando existe cámara de aire, por lo que necesitan ser aplicadas por el exterior del edificio y obligan a que la ejecución de la hoja de ladrillo de fuera sea hecha también por el exterior, con las condiciones de seguridad y de costo asociadas. Los films de aluminio o de polietileno presentan problemas de aplicación como la garantía de estanquidad, por no ser continuos, y por que el sistema de fijación poder no garantizarla. Las soluciones que parecen garantizar una mejor estanquidad y menor costo son las aplicaciones de barreras de vapor continuas y aplicadas por el interior del cerramiento, como la pintura al esmalte. Sin embargo, como ya se ha comentado con anterioridad, pueden reducir la capacidad higroscópica de los cerramientos y la inercia higroscópica de las construcciones. 4 La importancia de la capacidad higroscópica El agua actúa como un pequeño imán y es atraída por varios materiales en estado líquido o gaseoso. Muchos materiales son capaces de contener moléculas de vapor de aire, llamándose este fenómeno adsorción y ocurre en los materiales llamados hidrófilos. La capacidad de los materiales de variar su contenido de humedad con la humedad relativa del aire se llama capacidad higroscópica. La capacidad higroscópica de los materiales de revestimiento es importante por permitir la adsorción y desadsorción de agua en estado de vapor y así permitir la regulación de la humedad del ambiente interior, adsorbiendo cuando la humedad relativa del aire es elevada y desorbiendo cuando la humedad relativa es baja. De acuerdo con los datos del Fraunhofer Institut y para valores de humedad por unidad de volumen (Kg/m3), el revestimiento de yeso no es el producto que presenta una mejor capacidad higroscópica, comparado por ejemplo con los revocos de cemento. Para valores de humedad relativa del 50%, el revestimiento de yeso presenta valores de contenido de humedad de 3,6 g/m3, el revoco de cemento 9,66 g/m3, y el revestimiento acrílico de acabado de 2,7 g/m3. Para una humedad relativa del 95% y por tanto aún en el rango higroscópico, los valores para los mismos morteros son de 19 g/m3, 113,19 g/m3 y 34,55 g/m3, respectivamente. Para una humedad relativa del 100% y por tanto en el rango por encima de la saturación capilar, en la saturación máxima, los valores son de 400 g/m3, 280 g/m3 y 100 g/m3 respectivamente. Solo para valores de humedad relativa del 100% es posible verificar un contenido de humedad del revestimiento de yeso superior al del revoco de cemento. La inercia higroscópica permite que las variaciones de la humedad relativa del aire en una habitación, tenga una atenuación de los picos diarios pudiendo contribuir para el confort y para la disminución de los costos energéticos a él asociados. Puede también XXXVII tener un efecto a largo plazo traducido en alteraciones de las medias mensuales en los meses de inicio y de fin de ciclos estacionales, de variación de la humedad relativa. Estos son los fundamentos que han llevado al desarrollo de soluciones de revestimientos continuos interiores con características de barrera de vapor e higroscopicidad. ESTUDIO EXPERIMENTAL El estudio experimental consta de dos partes: - permeabilidad al vapor e capacidad higroscópica de materiales y productos - adherencia de revestimientos predosificados de yeso a capas impermeables al vapor. 1- Materiales y métodos I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos El desarrollo de esta solución de revestimiento ha comenzado por el estudio de las características de permeabilidad al vapor y de capacidad higroscópica de los materiales y productos utilizados en los revestimientos continuos de cerramientos. Los primeros ensayos han sido realizados en el periodo de docencia del Curso de Doctorado en la asignatura de Aplicaciones Actuales de Conglomerantes Tradicionales, del Profesor Luis de Villanueva Domínguez, y han permitido el primer contacto con los métodos de ensayos y el conocimiento de las normas aplicables. En el trabajo de investigación realizado en la asignatura, se ha ensayado la permeabilidad al vapor e la capacidad higroscópica de morteros de revestimiento, de conglomerantes tradicionales Los materiales y productos ensayados, en ese primer trabajo experimental, han sido, mortero de escayola y cal aérea, yeso de proyectar, mortero de cal aérea y arena, mortero de cal hidráulica y arena, mortero de cemento y arena, mortero de cemento y arena con aditivos impermeabilizantes y morteros impermeabilizantes a base de cemento. En el periodo de investigación del Curso de Doctorado han sido ensayados otros materiales y productos. También con la orientación del Catedrático Luis de Villanueva Domínguez se ha desarrollado el Trabajo Tutelado en el cual se han ensayado materiales y productos de revestimiento continuo de conglomerantes no tradicionales, yesos puros con adiciones naturales, yesos de proyectar con adiciones sintéticas y capas peliculares de diferente origen. De los productos de origen sintético se ha ensayado la permeabilidad al vapor y capacidad higroscópica de estucos acrílicos de relleno (Matesica), estucos acrílicos de acabado (Matesica), mortero sintético de relleno/acabado para exterior o interior (Matesica), mortero sintético de acabado para exterior (Weber), mortero epoxi de relleno y acabado para interior (Gobbetto), morteros de agarre (BASF y Matesica), mortero de reparación de cemento (Weber), mortero de reparación de yeso (Weber). Se ha ensayado también la permeabilidad al vapor de capas peliculares continuas de diferentes orígenes, como aceite de linaza hervido, cera de abeja diluida en esencia de trementina, emulsión bituminosa (Shell), emulsión bituminosa con polímero (BASF), imprimación epoxídica con cemento (BASF), pintura epoxídica (Matesica), pintura anticarbonatación (BASF), estuco Veneciano de cal (La Calce de la Brenta), estuco Veneciano sintético (Gobbetto) e impermeabilización líquida (Weber). Han sido ensayadas también la permeabilidad al vapor y la capacidad higroscópica de yesos puros (portugueses) sin adiciones y con aditivos naturales (cal aérea hidratada 1/1, cola de pescado y cola de conejo). Los yesos de proyectar han sido ensayados sin adiciones y con adiciones de látex SBR (BASF), acrílico (Weber) y epoxi (Matesica). II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Como ya se ha dicho anteriormente, hasta una humedad relativa por debajo del 95%, el revestimiento de yeso tiene una capacidad higroscópica inferior al revoco de cemento y al revestimiento acrílico de acabado. Se ha elegido, de acuerdo con el profesor Luis de Villanueva Domínguez, este producto como capa higroscópica del esquema de revestimiento. Las cuestiones de tradición cultural, de abundancia de materia prima en la Península Ibérica, esencialmente en España, y los menores costos energéticos asociados a su fabricación, determinan el origen de esta decisión. Para la producción de 1 m3 de XXXIX cemento son necesarios 12600 MJ, mientras que para 1 m3 de yeso son necesarios solamente 2640 MJ. Pero el yeso presenta otras características mejores que los morteros de cemento, como la menor densidad, menor conductividad térmica y menor efusividad térmica. La mejor capacidad de absorción de agua en la fase líquida por capilaridad, que el mortero de cemento, es otra de las ventajas de los revestimientos de yeso que en situaciones de condensación superficial interior puede evitar el goteo. El paso siguiente ha sido ensayar la adherencia de un revestimiento predosificado de yeso a las capas que han presentado característica de barrera de vapor con espesores hasta 6 mm, así como en aquellas en que los fabricantes recomiendan menores espesores, como el mortero epoxi de relleno y acabado y el mortero sintético de acabado. Se ha utilizado un revestimiento de yeso predosificado de aplicación manual, portugués. La elección de un producto de aplicación manual se ha debido a la dificultad de obtener la aplicación por proyección en el local donde se han hecho las muestras, el taller de la Faculdade de Arquitectura da Universidade Técnica de Lisboa. Se ha aplicado con espesor de 2 cm sobre las capas de aceite de linaza hervido, emulsión de bituminosa, imprimación epoxídica con cemento, pintura epoxídica, impermeabilización líquida, mortero epoxi de relleno y acabado, mortero sintético de acabado. Verificando que ninguno de los materiales que han presentado características de barrera de vapor hasta espesores de 0,6 mm proporcionaban una adherencia al revestimiento de yeso capaz de garantizar el cumplimento de todas las exigencias, se ha decidido elegir los materiales impermeables al vapor más finos y con diferentes orígenes para desarrollar los estudios de mejora de la adherencia. Ha sido necesario desarrollar un conjunto de experimentos con el objetivo de incrementar la adherencia del revestimiento de yeso a estos soportes no absorbentes. La adherencia de los revestimientos continuos de conglomerantes tradicionales, como el yeso sobre soportes absorbentes, se basa en una adherencia mecánica. En este caso los cristales de yeso se van a formar dentro de la red capilar del ladrillo cerámico o del hormigón. Aplicando una barrera de vapor sobre ellos, se elimina esta posibilidad por aplicarse una barrera entre la estructura porosa del soporte (ladrillo u hormigón) y el revestimiento de yeso. Se tiene que producir otro tipo de adherencia, la adherencia química. Esta adherencia se basa en los enlaces químicos, de tipo secundario, como los puentes de hidrógeno o las fuerzas bipolares de Van der Waals. Aunque este tipo de adherencia es menor que la que se produce sobre soportes absorbentes, puede alcanzar valores considerables. Los materiales impermeables al vapor elegidos han sido el aceite de linaza hervido, la emulsión bituminosa y la imprimación epoxi con cemento. A estos materiales de origen natural, artificial e sintético, han sido aplicadas capas intermedias de arena de sílice, mortero de cemento y arena, mortero de agarre y un puente de adherencia de acuerdo con las recomendaciones de Eurogypsum. La capa de arena ha sido aplicada con la última mano aún fresca, mientras que las otras capas intermedias han sido aplicadas con las capas impermeables al vapor ya secas. Las capas intermedias aplicadas han sido: - al aceite de linaza hervido - arena de sílice y puente de adherencia. - a la emulsión bituminosa - arena de sílice, mortero de cemento y arena 1:1 y puente de adherencia - a la capa de imprimación epoxídica con cemento - arena de sílice, mortero de agarre y puente de adherencia. El revestimiento de yeso utilizado ha sido un yeso predosificado de aplicación manual, de origen español, y se ha aplicado con un espesor de 2 centímetros. Para la capa intermedia de puente de adherencia y siguiendo la recomendación del fabricante, se ha añadido un látex de SBR (con relación látex/agua de 1/2) al revestimiento de yeso. Otra experimentación realizada ha sido la adición del látex SBR al revestimiento de yeso y su aplicación directamente sobre cada una de las capas impermeables al vapor, y a cada una de las capas intermedias aplicadas sobre las capas impermeables al vapor. XLI La aplicación del látex en las proporciones de 1/2, de relación látex/agua, puede cambiar algunas propiedades del revestimiento de yeso en pasta, en relación a su aplicación, o tiempo de inicio o fin de fraguado, e incluso tener influencia en el costo final del revestimiento. Puesto que la adherencia del revestimiento de yeso con adición del látex a la capa intermedia de puente de adherencia ha sido muy superior a las exigencias más estrictas, se ha realizado un ensayo, pero sin la adición del látex. Este ensayo se ha realizado aplicando el revestimiento de yeso sobre las capas de puente de adherencia anteriormente aplicadas sobre las capas impermeables al vapor, descritas con anterioridad. Se ha aplicado ahora un revestimiento de yeso predosificado también de aplicación manual, pero de origen portugués. Para garantizar el cumplimiento integral de la exigencia de adherencia de 0,5 MPa, se ha hecho otro ensayo con una menor adición de látex de SBR al yeso predosificado. Se ha aplicado el látex con una relación látex/agua de 1/3 y 1/4. 2 Resultados y discusión I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos En el primer ensayo de permeabilidad al vapor se concluyó que ninguno de los productos ensayados puede constituir barrera de vapor en espesores hasta 2 cm. y que lo que ha presentado mayor resistividad al vapor ha sido el mortero impermeabilizante de capa fina. Tendría que tener un espesor próximo a los 14,12 cm para poder constituir barrera de vapor. En los ensayos de capacidad higroscópica, realizados solamente para humedades relativas del 50% y 95% a temperaturas de 23ºC, el mortero de escayola y cal aérea y el yeso de proyectar han presentado una capacidad higroscópica bastante elevada, pero como el secado ha sido realizado a 100º C (lo que no es la temperatura adecuada para los productos a base de yeso por poder éstos sufrir una deshidratación y un cambio en su constitución) los resultados no pueden ser considerados. El mortero de impermeabilización de capa fina también ha presentado una buena capacidad higroscópica, mejor que el mortero de cemento y arena, y éste mejor que el mortero de cal hidráulica y arena, y éste mejor que el mortero de cal aérea y arena. La adición de aditivos impermeabilizantes no ha cambiado significativamente esta característica. Como resultado de los segundos ensayos se ha concluido que existen diferentes materiales y productos que pueden constituir barrera de vapor con diferentes espesores. Los productos estuco acrílico de relleno, estuco sintético de acabado, mortero sintético de acabado para exterior, mortero epoxi de relleno y acabado, han presentado características de barrera de vapor con espesores hasta 2 cm, sin embargo, son espesores superiores a los recomendados por los fabricantes de los productos. De los productos peliculares, han constituido barrera de vapor, el aceite de linaza hervido (con valores muy próximos), la emulsión bituminosa sin polímero, la imprimación epoxídica con cemento, la pintura epoxídica y la impermeabilización líquida. Todos los demás productos ensayados no han presentado esa característica cuando aplicados en tres manos. Los yesos puros con adiciones naturales y los yesos de proyectar con adiciones sintéticas no han presentado características de barrera de vapor en espesores hasta dos centímetros. El mejor resultado ha sido el del yeso puro con adición de cola de pescado, que ha presentado característica de barrera de vapor con espesor de 16,32 cm. En cuanto a la capacidad higroscópica de los materiales y productos, el ensayo ha sido repetido recientemente con las mismas muestras, porque en el ensayo realizado para el Trabajo Tutelado no fue posible una correcta caracterización. En ese ensayo solo se han obtenido los valores de capacidad higroscópica para valores de humedad del 50 % ± 3 a temperatura de 23 ºC ± 2 por no disponerse de los medios necesarios para un estudio más completo. En el ensayo realizado recientemente en el Laboratório Nacional de Engenharia Civil de Portugal (LNEC), se ha utilizado una cámara climática, con control de temperatura y humedad relativa, y se han obtenido los valores de capacidad higroscópica para valores de humedad relativa del 25%, 50%, 75% y 95% a temperatura constante de 23º C. XLIII En ese último ensayo se ha verificado que para humedades relativas del 50 %, los yesos predosificados de aplicación manual, portugueses y españoles, tienen diferentes capacidades higroscópicas. Los yesos españoles han presentado una capacidad higroscópica de 0,2 % y el portugués de 0,05 %. La adición de látex de SRB no ha reducido la capacidad higroscópica del yeso predosificado español. Los valores se han mantenido próximos para las relaciones látex/agua de 1/4, 1/3 y 1/2, con 0,2 %. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 2,2 g/dm3 y para los yesos con adición de látex han sido de cerca de 2,5 g/dm3. Para este valor de humedad relativa otros productos han presentado mayor capacidad higroscópica, como el yeso puro con cola de pescado con 5,1 g/dm3.Para morteros ensayados con espesores de 0,6 cm, el mortero de reparación de yeso ha presentado un valor de capacidad higroscópica de 4,1 g/dm3 y el mortero de agarre (BASF) ha presentado el valor de 4,6 g/dm3. Para valores de humedad relativa del 95 %, la capacidad higroscópica presentada por el yeso predosificado español ha sido de 1 % y por el portugués ha sido de 0,27 %. La adición de látex tampoco aquí ha alterado la capacidad higroscópica. Las pequeñas diferencia registradas pueden deberse al diferente tiempo en que se han realizado los pesajes, por existir ya mucha agua libre. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 10,6 g/dm3 y para los yesos con adición de látex han sido de cerca de 11,60 g/dm3 para látex/agua de 1/4, 13,77 g/dm3 para látex/agua de 1/3 y 12,20 g/dm3 para látex/agua de 1/2. Para este valor de humedad relativa, otros productos han presentado mayor capacidad higroscópica, y superiores al yeso predosificado de aplicación manual español. El yeso predosificado de proyectar con adición de látex acrílico (Weber), con 14,1 g/dm3, el yeso puro con cola de pescado con 17,8 g/dm3, el yeso puro cal aérea hidratada con 18,3 g/dm3. Para los morteros ensayados con espesores de 0,6 cm, el mortero de agarre Matesica con valor 17,7 g/dm3, el mortero de reparación de yeso con valores de 31,2 g/dm3 y el mortero de agarre BASF con valores de 48,8 g/dm3. Este ultimo valor debería ser verificado por haberse podido producir un error en la cantidad de agua suministrada. XLIV II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Realizado el ensayo de adherencia del revestimiento de yeso predosificado aplicado sobre las capas que han constituido barrera de vapor con espesor hasta 6 mm, se ha verificado que los valores requeridos por la norma europea EN 13279 de 2005, con valores de adherencia ≥ 0,1 MPa o rotura cohesiva por el soporte, solo no han sido satisfechos por la pintura epoxídica y por el revestimiento sintético de acabado. Todavía los valores de adherencia no han alcanzado los valores exigidos por las exigencias complementarias del Laboratório Nacional de Engenharia de Portugal (LNEC) o las exigencias españolas. Las exigencias del LNEC, determinan una adherencia ≥ 0,5 MPa, o una ruptura cohesiva. Las exigencias españolas determinan que la adherencia debe ser determinada por la rotura del revestimiento. La solución de revestimiento que mejor resultado ha presentado ha sido la del revestimiento predosificado de yeso aplicado sobre la capa de aceite de linaza hervido, con una adherencia de 0,324 MPa. También se ha ensayado la aplicación de una capa intermedia de mortero de agarre entre las capas impermeables al vapor de imprimación epoxídica y pintura epoxídica. Los resultados obtenidos han sido de 0,21 MPa y de 0,25 MPa respectivamente. De los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado a las capas peliculares elegidas que han constituido barrera de vapor cuando aplicadas en tres manos, solo algunas de las soluciones con adición de látex al yeso han cumplido las exigencias más estrictas. Éstas han sido las capas impermeables al vapor constituidas por emulsión bituminosa e imprimación epoxi con cemento. Las capas intermedias de arena de sílice sobre la emulsión bituminosa y sobre la imprimación epoxi también han cumplido. Las capas intermedias de mortero de cemento sobre emulsión bituminosa, y mortero de agarre sobre imprimación epoxi con cemento también han cumplido. El puente de adherencia sobre emulsión bituminosa e imprimación epoxídica con cemento, han presentado valores muy elevados de adherencia del revestimiento de XLV yeso. Los valores obtenidos han sido tres veces superiores a las exigencias más estrictas. Los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado sobre el puente adherencia aplicado sobre las capas peliculares impermeables al vapor han sido muy cercanos a la exigencia del Laboratório Nacional de Engenharia Civil de Portugal. Presentan una media de 0,456 MPa. Los valores más bajos han sido para la solución de capa impermeable al vapor constituida por aceite de linaza hervido, con el valor de 0,418 MPa. El valor más elevado ha sido para la solución de capa impermeable al vapor constituida por imprimación epoxídica con cemento, con el valor de adherencia de 0,484 MPa. Los valores obtenidos con las capas impermeables al vapor constituidas por aceite de linaza hervido han presentado roturas siempre adhesivas, o en su capa, pero con valores muy diferentes. Los valores de mayor adherencia se han producido con las capas de aceite con mayor tiempo de secado. En el ensayo de adherencia del revestimiento de yeso predosificado con adición de látex con relación agua/látex de 1/3 y 1/4, aplicado sobre el puente de adherencia, aplicado sobre la capa de imprimación epoxi se ha verificado que la solución con relación látex/agua de 1/4 ha superado la exigencia de 0,5 MPa en un 50 %. Esto resultado quiere decir que es posible aplicar una relación de látex/agua aún inferior. PRINCIPALES CONCLUSIONES Como principales conclusiones del estudio experimental podemos decir que es posible obtener un revestimiento continuo interior impermeable al vapor e higroscópico. Se pueden obtener con capas impermeables al vapor de aceite de linaza hervido (debidamente seco), emulsión bituminosa o con imprimación epoxídica con cemento, aplicadas directamente sobre el ladrillo. Como capa higroscópica se puede aplicar un revestimiento de yeso predosificado, no obstante sea menos higroscópico que un revestimiento de mortero de cemento y arena (hasta humedades relativas del 95%). La adherencia entre la capa impermeable al vapor y el revestimiento de yeso predosificado, puede conseguirse con un puente de adherencia entre las dos capas anteriormente descritas. Si la adherencia del yeso no fuera capaz de cumplir las exigencias más estrictas (0,5 MPa) puede añadirse un látex de SBR al yeso en una relación de látex agua de 1/4. Esa adición permite una adherencia un 50 % superior a las exigencias más estrictas, por lo que se pueden ensayar relaciones aún menores de L/A. Estas adiciones no restan capacidad higroscópica al revestimiento, pudiendo incluso incrementarla (para humedades relativas del 25% al 95%) con beneficio para la inercia higroscópica del edificio donde fuese aplicado. Con respecto a la influencia de la solución de revestimiento propuesta en el riesgo de condensaciones intersticiales, se puede decir que no ha sido posible observar una diferencia significativa en las simulaciones realizadas, entre la aplicación del revestimiento y su no aplicación. Las simulaciones han sido realizadas con la aplicación informática Wufi 5 Pro, que respeta la normativa más reciente relativa a las condensaciones intersticiales. Comparando con la solución tradicional de aplicación de barrera de vapor en la cámara de aire, tampoco se han verificado grandes diferencias. Cabe destacar que esta solución tradicional no ha presentado diferencias en relación a la no aplicación de barrera de vapor. Estas simulaciones contradicen lo comúnmente establecido hasta ahora, que es considerar que la aplicación de barreras de vapor en la parte caliente del cerramiento reduce considerablemente el riesgo de condensaciones intersticiales. Estas simulaciones han sido realizadas considerando que la fracción de lluvia adherida al cerramiento seria la correspondiente a la solución constructiva y a su inclinación. En la definición del componente pared del cerramiento no existe la posibilidad de colocar la capa de pintura exterior. Considerando la hipótesis de que con la capa de pintura exterior, no existe absorción de agua de lluvia, en esta solución constructiva, los valores obtenidos han cambiado considerablemente. El contenido total de agua en el elemento ha sido menor en la solución con barrera de vapor en el revestimiento (pico máximo de 1 Kg/m2), seguido de la solución de barrera de vapor en la cámara de aire (pico máximo de 1,4 Kg/m2) y esto menor que la solución sin barrera de vapor (pico máximo de 1,8 Kg/m2). El contenido de agua en la lana de roca también ha sido menor en la solución con barrera de vapor en el revestimiento interior (pico máximo de 1,15 %), seguido de la solución con barrera de vapor en la cámara de aire (pico máximo de 1,5 %). y esto menor que la solución sin barrera de vapor (pico máximo de 1,62 %).
Resumo:
El futuro proyecto SESAR (Europa)/NextGen program (USA) establece la necesidad de tener un control 4D (x,y,z,t) del espacio aéreo, por lo tanto es de vital importancia para tal fin el conocimiento a tiempo real de la velocidad del viento. Se pretenderá a causa de dichas necesidades, el cálculo de la estimación de las componentes del vector velocidad dentro de un dominio Ω (por ejemplo: área terminal de Madrid, cuya extensión esta caracterizada por unos 60000km2), para dicho desarrollo se hará uso de los valores puntuales del vector velocidad del viento conocidos a través de los mensajes ADS‐B transmitidos por las aeronaves circundantes.
Resumo:
El presente proyecto tiene como objetivo la creación de un controlador MIDI económico que haga uso de la tecnología actual, y partiendo de la idea del instrumento clásico, el Theremin, desarrollado por Lev Serguéievich Termen. Para ello se ha dividido el proyecto en dos principales bloques, el primero, hardware y el segundo, software. En la parte del hardware, se explica cual ha sido la razón de la utilización del microprocesador Arduino Uno, sus características técnicas y el uso de sensores de ultrasonido, ya que proporcionan la característica de poder interactuar con el controlador a través de gestos con las manos, al igual que un Theremin clásico. Se explica el montaje de los dispositivos que conforman el controlador, así como la mejora realizada, con la utilización de 4 de estos sensores, para dar más capacidades de interactuación con el controlador MIDI. También se ve en ese apartado, como se programa la tarjeta de Arduino, para que se encargue de realizar medidas con los sensores y enviarlas por el puerto serial USB. En el apartado del software se da una introducción al entorno de programación Max/MSP. Se ve el plug in desarrollado con este lenguaje, para poder comunicar el controlador MIDI con un software de audio profesional (Ableton Live) y se explica con detalle los bloques que conforman el plug in de control de sensores y como es transformada la información que entrega el microprocesador Arduino por el puerto USB, en datos MIDI. También, se da una explicación sobre el manejo correcto del controlador a la hora de mover las manos sobre los sensores y de donde situar el instrumento para que no se produzcan problemas de interferencias con las señales que envían los ultrasonidos. Además, se proporciona un presupuesto del coste de los materiales, y otro del coste del desarrollo realizado por el ingeniero. ABSTRACT The aim of this Project is the creation of an economical MIDI controller that uses nowadays technology and that is based on the idea of the Theremin, a classical instrument conceived by Lev Serguéievich Termen. In order to accomplish this, the project has been divided into two sections: hardware and software. The hardware section explains why the microprocessor Arduino Uno has been chosen, sets out its technical specifications and the use of ultrasonic sensors. These sensors enable the user to interact with the controller through hand gestures like the Theremin. The assembly of the devices is exposed as well as the improvements made with the use of four of these sensors to offer more interactive capabilities with the MIDI controller. The Arduino singleboard programming that performs the measurements with the sensors and sends these measurements through the USB serial port is also explained here. The software section introduces Max/MSP programming environment as well as the plug in developed with this language that connects the MIDI controller with professional audio software (Ableton Live). The blocks that build the sensor controller plug in are explained in detail along with the way the Arduino delivers the information through the USB port into MIDI data. In addition, an explanation of the correct handling of the MIDI controller is given focusing on how the user should move his hands above the sensors and where to place the instrument to avoid interference problems with the signals sent. Also, a cost estimation of both materials and engineering is provided.
Resumo:
En este proyecto se estudiarán las interferencias en el canal adyacente de los sistemas celulares, ubicados en las bandas de 900 y 1800 MHz. Para esto, se analizarán medidas de interferencia entre LTE y otros sistemas de comunicación celular. En el primer capítulo, se dará una breve descripción de los principales parámetros empleados en los distintos estándares de comunicaciones móviles, que operan en las bandas de frecuencia de interés. En el segundo, se van a explicar los distintos tipos de interferencias existentes entre sistemas celulares. También se verán las diferentes técnicas para reducir dichas interferencias, como por ejemplo, la de control de potencia y la de coordinación de interferencia entre celdas. Además, se explicarán los parámetros para determinar la interferencia en el canal adyacente, como son el ACLR, ACS y ACIR. Para finalizar se resumirán las principales características de los sistemas LTE y WiMAX. En el tercer capítulo, se estudiarán las interferencias que genera principalmente LTE a los otros sistemas celulares, mediante los parámetros que miden la interferencia en el canal adyacente explicados en el capítulo dos. Además, se determinará la separación en frecuencia que debe existir entre los canales para que los sistemas puedan coexistir. El capítulo cuatro se basa en la simulación de tres escenarios de interferencia entre dichos sistemas. Para esto, se utilizará el software de simulación de propagación radio, denominado Radio Plan. Con estas simulaciones se cuantificarán las pérdidas de rendimiento que sufren los sistemas interferidos. Por último, en el capítulo cinco se resumirán las conclusiones a las que se llegaron después de simular los diferentes escenarios de interferencia. SUMMARY In this project an adjacent channel interference study for cellular systems, allocated within 900 MHz and 1800 MHz bands will be performed. For this aim a set of measurements will be analyzed. In the first chapter, a brief explanation of the main parameters used in different mobile communications standards that operate in the frequency bands of interest, will be given. In the second chapter, different types of interference between cellular systems will be explained, as well as different techniques to reduce such interference. For example, power control and interference coordination between cells, will be shown. Furthermore, the parameters to determine the adjacent-channel interference, such as the ACLR, ACS and ACIR will be overviewed. Finally, the main features of LTE and WiMAX systems will be summarized. In the third chapter, the interference generated by the other mainly LTE cellular systems via parameters that measure the adjacent channel interference explained in chapter two will be studied. Also, the frequency separation that must exist between the channels so that the systems can coexist will be determined. The fourth chapter is based on the simulation of three scenarios of interference between these systems. For this purpose, a radio propagation simulation software package Radio Plan will be used. These simulations will quantify performance losses suffered by systems that interfered. Finally, in chapter five the conclusions about the results of simulations of interference in different scenarios will be presented.
Resumo:
La movilidad geográfica es, sin lugar a dudas, uno de los aspectos sociales que más se viene potenciando en los últimos años tanto dentro como fuera de nuestras fronteras. En nuestro país, las difíciles condiciones orográficas hacen necesario desarrollar complejos proyectos donde los túneles son un elemento clave. Los recientes incendios acaecidos en túneles en todo el mundo han despertado inquietud en cuanto a la seguridad de este tipo de infraestructuras lo que a su vez ha servido para profundizar en el estudio de los fenómenos que intervienen en el desarrollo y control del fuego y los medios disponibles para paliar sus peligrosos efectos. En este sentido los riesgos relacionados con la seguridad se abordan mediante una aproximación global basada en primer lugar en la prevención y, posteriormente, la reducción de consecuencias. Dentro del conjunto de instalaciones disponibles en los túneles para abordar el segundo aspecto, el sistema de ventilación juega un papel fundamental por su relación con los criterios de seguridad. Por otra parte, el mayor conocimiento de los fenómenos que intervienen en los procesos de producción y evolución de los humos así como la complejidad de las nuevas obras permiten definir criterios de dimensionamiento y funcionamiento de la ventilación más sofisticados. Para ello se requieren grupos multidisciplinares de profesionales altamente especializados capaces de proyectar o supervisar este tipo de instalaciones cuya participación es fundamental desde las etapas más tempranas de este tipo de infraestucturas.
Resumo:
El Proyecto Fin de Carrera realizado aborda un estudio teórico acerca de la retransmisión de un Real Madrid – F.C. Barcelona. Con este proyecto se intenta que el lector consiga tener una idea acerca de todo lo que con lleva un partido de fútbol con estas dimensiones desde el punto de vista audiovisual y sea capaz de entender los pasos necesarios a dar para realizarlo. Cuando vemos la retransmisión de un evento deportivo y concretamente de un partido de fútbol de tal envergadura, es casi imposible pensar el despliegue que hay detrás de él. Por ello, se ha intentado explicar de una manera sencilla y breve la manera de realizar un evento de este tamaño, que podría servir como ejemplo para realizar otros eventos deportivos de gran escala. A lo largo de este proyecto, se realiza un estudio completo sobre los principales pasos a dar para hacer posible que la retransmisión llegue a los espectadores. La memoria de este proyecto está basada en 7 capítulos. En el primer capítulo, se expone una breve introducción sobre la retransmisión de partidos, para que el lector pueda hacerse una idea de lo que se va a realizar posteriormente y pueda tener una idea de lo que se explica en los capítulos restantes. En el segundo capítulo, se trata del primer paso para la retransmisión de un partido de fútbol, que puede aplicarse a otros eventos deportivos. Este apartado está centrado en la localización del lugar, en él se explican los primeros pasos a dar en los primeros días de montaje. Estos son fundamentales para que posteriormente el partido pueda salir de la mejor manera posible, equivocarse o cometer errores al inicio puede acarrear mayores gastos económicos y grandes demoras de tiempo posteriormente. El tercer capítulo se centra en el montaje y la producción del evento. En la primera parte, se explica cómo situar dentro del campo de fútbol los micrófonos y las cámaras. Además, se hace una descripción de cada uno de ellos. También se introducen conceptos básicos y parámetros de los principales micrófonos y cámaras que se usarán en el evento. La segunda parte del capítulo se centra en explicar las diferentes señales utilizadas, como se transmiten y la comunicación interna y externa. El capítulo cuarto sirve para conocer el material necesario para realizar el evento. Se explican: micrófonos, cámaras, EVS (Unidades de grabación), CCU (Camera Control Unit), mezclador y tipo de cableado indicando los modelos y marcas más relevantes que se usan en la actualidad. Además, se pueden ver diferentes figuras del material utilizado. En el quinto capítulo, se ven las principales funciones que realizan los empleados. Comienza con una amplia explicación de la realización del evento y continúa explicando las diferentes funciones de los operadores del material visto en el capítulo anterior. El capítulo sexto, sirve para explicar un presupuesto aproximado de lo que sería la realización y producción del evento y poder estudiar la viabilidad de este. Por último, en el capítulo séptimo se ven una serie de conclusiones a modo de resumen, las cuales han de ayudar a dejar completamente claros una serie de conceptos básicos acerca del proyecto. ABSTRACT. The Thesis made deals with a theoretical study of the broadcast of a Real Madrid - FC Barcelona. This project, tries that the reader gets has an idea of everything that has a football match with these dimensions from the visual point of view and be able to understand the steps to take. When we see the broadcast of a sport event and specifically a football match of this magnitude, it is almost impossible to think the deployment behind it. Therefore, we have tried to explain in a simple and concise way to hold an event of this size and it could serve for other large-scale sporting events. Throughout this project, a comprehensive study is done on the main steps to be taken to make the broadcast possible way to reach spectators. The memory of this project is based on seven chapters. In the first chapter, a brief introduction explains retransmission matches, so that the reader can get an idea about is explained in the next chapters. In the second chapter, the first step is performed to broadcast a football match and that can be applied to other sports events. This section focuses on the location of where it explains the first days of installation. This is important for later the match can be done of the best possible way and wrong or make mistakes at the beginning can lead to higher economic costs and long delays of time later. The third chapter focuses on the assembly and production of the event. The first part explains how to locate within the football field microphones and cameras. It also explains each one. Also, introduces basic concepts and parameters of the main microphones and cameras that will be used at the event. In the second part, the chapter focuses on explaining the different signals used as transmission and communication internally and externally. The fourth chapter serves to meet the necessary material for the event. It explains: microphones, cameras, EVS, CCU, mixer and cabling type indicating the most relevant models and brands that are used today. Also, you can see different figures on the material used. In the fifth chapter, the main functions are performed by employees. It begins with a thorough explanation of the event and goes on to explain the various functions of the operators of the material seen in the previous chapter. The sixth chapter, helps explain an estimate of what would be the creation and production of the event and to study the feasibility of this. Finally, in the seventh chapter are a number of conclusions in summary, which should help to make thoroughly clear a number of basic concepts about the project.