69 resultados para CONTROL DE INFECCIONES EN HOSPITALES
Resumo:
En este artículo se revisa brevemente la situación actual del control de calidad en frutas, las posibilidades actuales de medida de los distintos parámetros de calidad, las ventajas que su control implica y las repercusiones que puede conllevar. Finalmente se clasifican las técnicas de medida disponibles y se adjuntan tablas en las que se relacionan múltiples parámetros de calidad con las posibles técnicas a emplear para medirlos y con las frutas a las que se podrían aplicar.
Resumo:
El objetivo del estudio es determinar el efecto de tratamiento de la madera de Pinus sylvestris con sustancias protectoras en las propiedades mecánicas. Para ello se utilizan 40 muestras de madera libre de defectos de Pinus sylvestris L. tratándose con protectores orgánicos (Vacsol Azure WR 2601) 50 con protectores hidrosolubles (Tanalith E 3492) y 40 muestras de control sin tratamiento. Se evaluó la resistencia mecánica a la flexión estática, módulo de elasticidad y la fuerza de compresión paralela a la fibra fueron comparados con madera no tratada. El análisis de regresión entre la penetración y la fuerza de compresión paralela se realizó con las muestras tratadas con conservante a base de agua. Resultados principales: Los resultados indican que la madera tratada (con cualquiera de los productos) presenta un aumento estadísticamente significativo de la resistencia mecánica en todas las tres características mecánicas. Los resultados obtenidos difieren de estudios anteriores llevada a cabo por otros autores. No hubo correlación entre la resistencia a la compresión en paralelo y el grado de impregnación de la madera con base de agua de cobre azoles. La explicación más probable para estos resultados se refiere a cambios en la presión durante el tratamiento. El uso de muestras de control no tratadas en lugar de las muestras tratadas sólo con agua es más probable para producir resultados significativos en los estudios de resistencia mecánica . La investigación pone de relieve que la madera tratada presenta un aumento estadísticamente significativo en el Modulo de Elasticidad, módulo de rotura a la flexión estática y resistencia a la compresión paralela. No hubo correlación entre la resistencia a la compresión en paralelo y el grado de impregnación con conservante hidrosoluble.
Resumo:
La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).
Resumo:
El objetivo fundamental de la presente tesis doctoral es el diseño de una arquitectura cognitiva, que pueda ser empleada para la navegación autónoma de vehículos aéreos no tripulados conocidos como UAV (Unmanned Aerial Vehicle). Dicha arquitectura cognitiva se apoya en la definición de una librería de comportamientos, que aportarán la inteligencia necesaria al UAV para alcanzar los objetivos establecidos, en base a la información sensorial recopilada del entorno de operación. La navegación autónoma del UAV se apoyará en la utilización de un mapa topológico visual, consistente en la definición de un grafo que engloba mediante nodos los diferentes landmarks ubicados en el entorno, y que le servirán al UAV de guía para alcanzar su objetivo. Los arcos establecidos entre los nodos del mapa topológico, le proporcionarán de la información necesaria para establecer el rumbo más adecuado para alcanzar el siguiente landmark a visitar, siguiendo siempre una secuencia lógica de navegación, basada en la distancia entre un determinado landmark con respecto al objetivo final ó landmark destino. La arquitectura define un mecanismo híbrido de control, el cual puede conmutar entre dos diferentes modos de navegación. El primero es el denominado como Search Mode, el cual se activará cuando el UAV se encuentre en un estado desconocido dentro del entorno, para lo cual hará uso de cálculos basado en la entropía para la búsqueda de posibles landmarks. Se empleará como estrategia novedosa la idea de que la entropía de una imagen tiene una correlación directa con respecto a la probabilidad de que dicha imagen contenga uno ó varios landmarks. De esta forma, la estrategia para la búsqueda de nuevos landmarks en el entorno, se basará en un proceso continuo de maximización de la entropía. Si por el contrario el UAV identifica la existencia de un posible landmark entre los definidos en su mapa topológico, se considerará que está sobre un estado conocido, por lo que se conmutará al segundo modo de navegación denominado como Homing Mode, el cual se encargará de calcular señales de control para la aproximación del UAV al landmark localizado. Éste último modo implementa un control dual basado en dos tipos de controladores (FeedForward/FeedBack) que mediante su combinación, aportarán al UAV señales de control cada vez más óptimas, además de llevar a cabo un entrenamiento continuo y en tiempo real. Para cumplir con los requisitos de ejecución y aprendizaje en tiempo real de la arquitectura, se han tomado como principales referencias dos paradigmas empleados en diferentes estudios dentro del área de la robótica, como son el paradigma de robots de desarrollo (developmental robots) basado en un aprendizaje del robot en tiempo real y de forma adaptativa con su entorno, así como del paradigma de modelos internos (internal models) basado en los resultados obtenidos a partir de estudios neurocientíficos del cerebelo humano; dicho modelo interno sirve de base para la construcción del control dual de la arquitectura. Se presentarán los detalles de diseño e implementación de los diferentes módulos que componen la arquitectura cognitiva híbrida, y posteriormente, los diferentes resultados obtenidos a partir de las pruebas experimentales ejecutadas, empleando como UAV la plataforma robótica aérea de AR.Drone. Como resultado final se ha obtenido una validación completa de la arquitectura cognitiva híbrida objetivo de la tesis, cumplimento con la totalidad de requisitos especificados y garantizando su viabilidad como aplicación operativa en el mundo real. Finalmente, se muestran las distintas conclusiones a las cuales se ha llegado a partir de los resultados experimentales, y se presentan las diferentes líneas de investigación futuras que podrán ser ejecutadas.
Resumo:
Los métodos de detección rápida de microorganismos se están convirtiendo en una herramienta esencial para el control de calidad en el área de la biotecnología, como es el caso de las industrias de alimentos y productos farmacéuticos y bioquímicos. En este escenario, el objetivo de esta tesis doctoral es desarrollar una técnica de inspección rápida de microoganismos basada en ultrasonidos. La hipótesis propuesta es que la combinación de un dispositivo ultrasónico de medida y un medio líquido diseñado específicamente para producir y atrapar burbujas, pueden constituir la base de un método sensible y rápido de detección de contaminaciones microbianas. La técnica presentada es efectiva para bacterias catalasa-positivas y se basa en la hidrólisis del peróxido de hidrógeno inducida por la catalasa. El resultado de esta reacción es un medio con una creciente concentración de burbujas. Tal medio ha sido estudiado y modelado desde el punto de vista de la propagación ultrasónica. Las propiedades deducidas a partir del análisis cinemático de la enzima se han utilizado para evaluar el método como técnica de inspección microbiana. En esta tesis, se han investigado aspectos teóricos y experimentales de la hidrólisis del peróxido de hidrógeno. Ello ha permitido describir cuantitativamente y comprender el fenómeno de la detección de microorganismos catalasa-positivos mediante la medida de parámetros ultrasónicos. Más concretamente, los experimentos realizados muestran cómo el oxígeno que aparece en forma de burbujas queda atrapado mediante el uso de un gel sobre base de agar. Este gel fue diseñado y preparado especialmente para esta aplicación. A lo largo del proceso de hidrólisis del peróxido de hidrógeno, se midió la atenuación de la onda y el “backscattering” producidos por las burbujas, utilizando una técnica de pulso-eco. Ha sido posible detectar una actividad de la catalasa de hasta 0.001 unidades/ml. Por otra parte, este estudio muestra que por medio del método propuesto, se puede lograr una detección microbiana para concentraciones de 105 células/ml en un periodo de tiempo corto, del orden de unos pocos minutos. Estos resultados suponen una mejora significativa de tres órdenes de magnitud en comparación con otros métodos de detección por ultrasonidos. Además, la sensibilidad es competitiva con modernos y rápidos métodos microbiológicos como la detección de ATP por bioluminiscencia. Pero sobre todo, este trabajo muestra una metodología para el desarrollo de nuevas técnicas de detección rápida de bacterias basadas en ultrasonidos. ABSTRACT In an industrial scenario where rapid microbiological methods are becoming essential tools for quality control in the biotechnological area such as food, pharmaceutical and biochemical; the objective of the work presented in this doctoral thesis is to develop a rapid microorganism inspection technique based on ultrasounds. It is proposed that the combination of an ultrasonic measuring device with a specially designed liquid medium, able to produce and trap bubbles could constitute the basis of a sensitive and rapid detection method for microbial contaminations. The proposed technique is effective on catalase positive microorganisms. Well-known catalase induced hydrogen peroxide hydrolysis is the fundamental of the developed method. The physical consequence of the catalase induced hydrogen peroxide hydrolysis is an increasingly bubbly liquid medium. Such medium has been studied and modeled from the point of view of ultrasonic propagation. Properties deduced from enzyme kinematics analysis have been extrapolated to investigate the method as a microbial inspection technique. In this thesis, theoretical and experimental aspects of the hydrogen peroxide hydrolysis were analyzed in order to quantitatively describe and understand the catalase positive microorganism detection by means of ultrasonic measurements. More concretely, experiments performed show how the produced oxygen in form of bubbles is trapped using the new gel medium based on agar, which was specially designed for this application. Ultrasonic attenuation and backscattering is measured in this medium using a pulse-echo technique along the hydrogen peroxide hydrolysis process. Catalase enzymatic activity was detected down to 0.001 units/ml. Moreover, this study shows that by means of the proposed method, microbial detection can be achieved down to 105 cells/ml in a short time period of the order of few minutes. These results suppose a significant improvement of three orders of magnitude compared to other ultrasonic detection methods for microorganisms. In addition, the sensitivity reached is competitive with modern rapid microbiological methods such as ATP detection by bioluminescence. But above all, this work points out a way to proceed for developing new rapid microbial detection techniques based on ultrasound.
Resumo:
Los sistemas técnicos son cada vez más complejos, incorporan funciones más avanzadas, están más integrados con otros sistemas y trabajan en entornos menos controlados. Todo esto supone unas condiciones más exigentes y con mayor incertidumbre para los sistemas de control, a los que además se demanda un comportamiento más autónomo y fiable. La adaptabilidad de manera autónoma es un reto para tecnologías de control actualmente. El proyecto de investigación ASys propone abordarlo trasladando la responsabilidad de la capacidad de adaptación del sistema de los ingenieros en tiempo de diseño al propio sistema en operación. Esta tesis pretende avanzar en la formulación y materialización técnica de los principios de ASys de cognición y auto-consciencia basadas en modelos y autogestión de los sistemas en tiempo de operación para una autonomía robusta. Para ello el trabajo se ha centrado en la capacidad de auto-conciencia, inspirada en los sistemas biológicos, y se ha explorado la posibilidad de integrarla en la arquitectura de los sistemas de control. Además de la auto-consciencia, se han explorado otros temas relevantes: modelado funcional, modelado de software, tecnología de los patrones, tecnología de componentes, tolerancia a fallos. Se ha analizado el estado de la técnica en los ámbitos pertinentes para las cuestiones de la auto-consciencia y la adaptabilidad en sistemas técnicos: arquitecturas cognitivas, control tolerante a fallos, y arquitecturas software dinámicas y computación autonómica. El marco teórico de ASys existente de sistemas autónomos cognitivos ha sido adaptado para servir de base para este análisis de autoconsciencia y adaptación y para dar sustento conceptual al posterior desarrollo de la solución. La tesis propone una solución general de diseño para la construcción de sistemas autónomos auto-conscientes. La idea central es la integración de un meta-controlador en la arquitectura de control del sistema autónomo, capaz de percibir la estado funcional del sistema de control y, si es necesario, reconfigurarlo en tiempo de operación. Esta solución de metacontrol se ha formalizado en cuatro patrones de diseño: i) el Patrón Metacontrol, que define la integración de un subsistema de metacontrol, responsable de controlar al propio sistema de control a través de la interfaz proporcionada por su plataforma de componentes, ii) el patrón Bucle de Control Epistémico, que define un bucle de control cognitivo basado en el modelos y que se puede aplicar al diseño del metacontrol, iii) el patrón de Reflexión basada en Modelo Profundo propone una solución para construir el modelo ejecutable utilizado por el meta-controlador mediante una transformación de modelo a modelo a partir del modelo de ingeniería del sistema, y, finalmente, iv) el Patrón Metacontrol Funcional, que estructura el meta-controlador en dos bucles, uno para el control de la configuración de los componentes del sistema de control, y otro sobre éste, controlando las funciones que realiza dicha configuración de componentes; de esta manera las consideraciones funcionales y estructurales se desacoplan. La Arquitectura OM y el metamodelo TOMASys son las piezas centrales del marco arquitectónico desarrollado para materializar la solución compuesta de los patrones anteriores. El metamodelo TOMASys ha sido desarrollado para la representación de la estructura y su relación con los requisitos funcionales de cualquier sistema autónomo. La Arquitectura OM es un patrón de referencia para la construcción de una metacontrolador integrando los patrones de diseño propuestos. Este meta-controlador se puede integrar en la arquitectura de cualquier sistema control basado en componentes. El elemento clave de su funcionamiento es un modelo TOMASys del sistema decontrol, que el meta-controlador usa para monitorizarlo y calcular las acciones de reconfiguración necesarias para adaptarlo a las circunstancias en cada momento. Un proceso de ingeniería, complementado con otros recursos, ha sido elaborado para guiar la aplicación del marco arquitectónico OM. Dicho Proceso de Ingeniería OM define la metodología a seguir para construir el subsistema de metacontrol para un sistema autónomo a partir del modelo funcional del mismo. La librería OMJava proporciona una implementación del meta-controlador OM que se puede integrar en el control de cualquier sistema autónomo, independientemente del dominio de la aplicación o de su tecnología de implementación. Para concluir, la solución completa ha sido validada con el desarrollo de un robot móvil autónomo que incorpora un meta-controlador con la Arquitectura OM. Las propiedades de auto-consciencia y adaptación proporcionadas por el meta-controlador han sido validadas en diferentes escenarios de operación del robot, en los que el sistema era capaz de sobreponerse a fallos en el sistema de control mediante reconfiguraciones orquestadas por el metacontrolador. ABSTRACT Technical systems are becoming more complex, they incorporate more advanced functionalities, they are more integrated with other systems and they are deployed in less controlled environments. All this supposes a more demanding and uncertain scenario for control systems, which are also required to be more autonomous and dependable. Autonomous adaptivity is a current challenge for extant control technologies. The ASys research project proposes to address it by moving the responsibility for adaptivity from the engineers at design time to the system at run-time. This thesis has intended to advance in the formulation and technical reification of ASys principles of model-based self-cognition and having systems self-handle at runtime for robust autonomy. For that it has focused on the biologically inspired capability of self-awareness, and explored the possibilities to embed it into the very architecture of control systems. Besides self-awareness, other themes related to the envisioned solution have been explored: functional modeling, software modeling, patterns technology, components technology, fault tolerance. The state of the art in fields relevant for the issues of self-awareness and adaptivity has been analysed: cognitive architectures, fault-tolerant control, and software architectural reflection and autonomic computing. The extant and evolving ASys Theoretical Framework for cognitive autonomous systems has been adapted to provide a basement for this selfhood-centred analysis and to conceptually support the subsequent development of our solution. The thesis proposes a general design solution for building self-aware autonomous systems. Its central idea is the integration of a metacontroller in the control architecture of the autonomous system, capable of perceiving the functional state of the control system and reconfiguring it if necessary at run-time. This metacontrol solution has been formalised into four design patterns: i) the Metacontrol Pattern, which defines the integration of a metacontrol subsystem, controlling the domain control system through an interface provided by its implementation component platform, ii) the Epistemic Control Loop pattern, which defines a modelbased cognitive control loop that can be applied to the design of such a metacontroller, iii) the Deep Model Reflection pattern proposes a solution to produce the online executable model used by the metacontroller by model-to-model transformation from the engineering model, and, finally, iv) the Functional Metacontrol pattern, which proposes to structure the metacontroller in two loops, one for controlling the configuration of components of the controller, and another one on top of the former, controlling the functions being realised by that configuration; this way the functional and structural concerns become decoupled. The OM Architecture and the TOMASys metamodel are the core pieces of the architectural framework developed to reify this patterned solution. The TOMASys metamodel has been developed for representing the structure and its relation to the functional requirements of any autonomous system. The OM architecture is a blueprint for building a metacontroller according to the patterns. This metacontroller can be integrated on top of any component-based control architecture. At the core of its operation lies a TOMASys model of the control system. An engineering process and accompanying assets have been constructed to complete and exploit the architectural framework. The OM Engineering Process defines the process to follow to develop the metacontrol subsystem from the functional model of the controller of the autonomous system. The OMJava library provides a domain and application-independent implementation of an OM Metacontroller than can be used in the implementation phase of OMEP. Finally, the complete solution has been validated in the development of an autonomous mobile robot that incorporates an OM metacontroller. The functional selfawareness and adaptivity properties achieved thanks to the metacontrol system have been validated in different scenarios. In these scenarios the robot was able to overcome failures in the control system thanks to reconfigurations performed by the metacontroller.
Resumo:
En la actualidad el uso de adiciones activas en las dosificaciones de morteros y hormigones es una práctica ampliamente extendida. En este trabajo de investigación se estudiaron morteros con incorporación de nanosílice que nos permitiesen ampliar las perspectivas de uso de este tipo de material. Como objetivo último se trataría de extrapolar el comportamiento de este material a microhormigones. Dentro de las posibilidades de uso que se proponían para este nuevo material se podrían encontrar la fabricación de losas de pavimento, la puesta en obra en continuo, el uso en elementos decorativos y funcionales de bajo coste, expuestos a ambientes moderados de abrasión, etc. En las dosificaciones ensayadas se determinó el comportamiento mecánico del material, mediante La determinación de las resistencias a compresión y flexión, y la determinación de la energía de fractura del material, a 7, 28 y 90 días. Se evaluó la dureza superficial antes y después de un proceso de carbonatación acelerada. Se realizaron medidas del desgaste del material por choque usando el ensayo de Los Ángeles. Los resultados obtenidos indican que el material propuesto presenta una dureza superficial similar al de rocas naturales después del proceso de carbonatación de las muestras. Existe cierta relación entre la adherencia que presenta el material (determinado a partir del coeficiente de Los Ángeles) y la tenacidad del material (evaluada a través de la determinación de la energía de fractura).
Resumo:
Este artículo estudia el proceso de fisuración del hormigón por corrosión de la armadura. Se presenta un modelo de transporte de cloruros en el hormigón, que contempla la no-linealidad de los coeficientes de difusión, las isotermas de absorción y el fenómeno de convección. A partir de los resultados de penetración de cloruros, se establece la corrosión de la armadura con la consiguiente expansión radial. La fisuración del hormigón se estudia con un modelo de fisura embebida. Los dos modelos (iniciación y propagación) se incorporan en un programa de elementos finitos. El modelo se contrasta con resultados experimentales, obteniéndose un buen ajuste. Una de las dificultades es establecer el umbral de concentración de cloruros que da lugar al inicio de la corrosión de la armadura.This paper is focused on the chloride-induced corrosion of the rebar in RC. A comprehensive model for the chloride ingress into concrete is presented, with special attention to non-linear diffusion coefficients, chloride binding isotherms and convection phenomena. Based on the results of chloride diffusion, subsequent active corrosion is assumed and the radial expansion of the corroded reinforcement reproduced. For cracking simulation, the Strong Discontinuity Approach is applied. Both models (initiation and propagation corrosion stages) are incorporated in the same finite element program and chained. Comparisons with experimental results are carried out, with reasonably good agreements being obtained, especially for cracking patterns. Major limitations refer to difficulties to establish precise levels of basic data such as the chloride ion content at concrete surface, the chloride threshold concentration that triggers active corrosion, the rate of oxide production or the rust mechanical properties.
Resumo:
La apertura de los mercados internacionales de capital como consecuencia del proceso de globalización ha motivado un aumento significativo de la labor investigadora en el campo de la economía y, concretamente, en la teoría de la inversión. Los trabajos en este área tuvieron como punto de partida el artículo publicado por Harry Markowitz en 1952 en el Journal of Finance bajo el título “Portfolio Selection”. En él se pretende hacer una modelización del proceso inversionista principalmente a través de dos criterios: riesgo y retorno. Markowitz no da indicaciones en cuanto a cómo elegir la composición de una cartera optimizando simultáneamente riesgo y retorno. En su lugar, fija una de las dos variables (según la aversión al riesgo del inversor y su preferencia por las ganancias) y optimiza la otra. Sin embargo, este análisis resulta ser bastante simplista si tenemos en cuenta que los inversores, como cualquier ser humano, son decisores multicriterio: no sólo maximizarán el beneficio para un riesgo dado, sino que intentarán también minimizar el riesgo, diversificar el tipo de acciones que poseen para inmunizarse frente a crisis financieras, emplear nuevos criterios de inversión que incorporen la sostenibilidad medioambiental y el impacto que la actividad productiva tiene en la sociedad, destinar un mayor porcentaje del presupuesto a compañías poco endeudadas, que alcancen un buen rating o unos buenos índices de responsabilidad social corporativa, etc. La inclusión de estas nuevas variables en el modelo tradicional es ahora posible gracias a la teoría de la decisión multicriterio (MCDM: Multiple Criteria Decision Making). Desde los años setenta se viene desarrollando y aplicando este nuevo paradigma en áreas tan dispares como la planificación de redes de telecomunicación, la optimización de listas de espera en hospitales o la planificación logística de las grandes distribuidoras y compañías de mensajería. En el presente trabajo se pretende aplicar el paradigma MCDM a la construcción de una cartera de acciones siguiendo criterios tanto puramente financieros como de sostenibilidad medioambiental y responsabilidad social corporativa. Para ello, en esta primera parte se estudiará la teoría clásica de selección de carteras de Markowitz, explicando los parámetros que permiten caracterizar un instrumento financiero individual (retorno, riesgo, covarianza) y una cartera de instrumentos (diversificación, frontera eficiente). En la segunda parte se analizará en profundidad el concepto de desarrollo sostenible, tan extendido en la actualidad, y su transposición al plano corporativo y de gestión de carteras. Se realizará una revisión histórica del término y su encaje en el esquema de decisión de una compañía privada, así como un estudio de las herramientas para medir el cumplimiento de ciertos principios de sostenibilidad por parte de las compañías y hacer, de esta forma, cuantificables dichos conceptos con vistas a su incorporación al esquema decisional del inversor. Con posterioridad, en la tercera parte se estudiará la programación por metas como técnica de decisión multicriterio para aplicar al problema de la composición de carteras. El potencial de esta metodología radica en que permite hacer resoluble un problema, en principio, sin solución. Y es que, como no se pueden optimizar todos y cada uno de los criterios simultáneamente, la programación por metas minimizará las desviaciones respecto a determinados niveles de aspiración para ofrecer una solución lo más cercana posible a la ideal. Finalmente, se construirá un caso de estudio a partir de datos reales tanto financieros como de sostenibilidad para, posteriormente, resolver el modelo matemático construido empleando LINGO. A través de esta herramienta software se podrá simular el proceso de optimización y obtener una cartera-solución que refleje las preferencias del agente decisor.
Resumo:
Esta tesis trata sobre métodos de corrección que compensan la variación de las condiciones de iluminación en aplicaciones de imagen y video a color. Estas variaciones hacen que a menudo fallen aquellos algoritmos de visión artificial que utilizan características de color para describir los objetos. Se formulan tres preguntas de investigación que definen el marco de trabajo de esta tesis. La primera cuestión aborda las similitudes que se dan entre las imágenes de superficies adyacentes en relación a su comportamiento fotométrico. En base al análisis del modelo de formación de imágenes en situaciones dinámicas, esta tesis propone un modelo capaz de predecir las variaciones de color de la región de una determinada imagen a partir de las variaciones de las regiones colindantes. Dicho modelo se denomina Quotient Relational Model of Regions. Este modelo es válido cuando: las fuentes de luz iluminan todas las superficies incluídas en él; estas superficies están próximas entre sí y tienen orientaciones similares; y cuando son en su mayoría lambertianas. Bajo ciertas circunstancias, la respuesta fotométrica de una región se puede relacionar con el resto mediante una combinación lineal. No se ha podido encontrar en la literatura científica ningún trabajo previo que proponga este tipo de modelo relacional. La segunda cuestión va un paso más allá y se pregunta si estas similitudes se pueden utilizar para corregir variaciones fotométricas desconocidas en una región también desconocida, a partir de regiones conocidas adyacentes. Para ello, se propone un método llamado Linear Correction Mapping capaz de dar una respuesta afirmativa a esta cuestión bajo las circunstancias caracterizadas previamente. Para calcular los parámetros del modelo se requiere una etapa de entrenamiento previo. El método, que inicialmente funciona para una sola cámara, se amplía para funcionar en arquitecturas con varias cámaras sin solape entre sus campos visuales. Para ello, tan solo se necesitan varias muestras de imágenes del mismo objeto capturadas por todas las cámaras. Además, este método tiene en cuenta tanto las variaciones de iluminación, como los cambios en los parámetros de exposición de las cámaras. Todos los métodos de corrección de imagen fallan cuando la imagen del objeto que tiene que ser corregido está sobreexpuesta o cuando su relación señal a ruido es muy baja. Así, la tercera cuestión se refiere a si se puede establecer un proceso de control de la adquisición que permita obtener una exposición óptima cuando las condiciones de iluminación no están controladas. De este modo, se propone un método denominado Camera Exposure Control capaz de mantener una exposición adecuada siempre y cuando las variaciones de iluminación puedan recogerse dentro del margen dinámico de la cámara. Los métodos propuestos se evaluaron individualmente. La metodología llevada a cabo en los experimentos consistió en, primero, seleccionar algunos escenarios que cubrieran situaciones representativas donde los métodos fueran válidos teóricamente. El Linear Correction Mapping fue validado en tres aplicaciones de re-identificación de objetos (vehículos, caras y personas) que utilizaban como caracterísiticas la distribución de color de éstos. Por otra parte, el Camera Exposure Control se probó en un parking al aire libre. Además de esto, se definieron varios indicadores que permitieron comparar objetivamente los resultados de los métodos propuestos con otros métodos relevantes de corrección y auto exposición referidos en el estado del arte. Los resultados de la evaluación demostraron que los métodos propuestos mejoran los métodos comparados en la mayoría de las situaciones. Basándose en los resultados obtenidos, se puede decir que las respuestas a las preguntas de investigación planteadas son afirmativas, aunque en circunstancias limitadas. Esto quiere decir que, las hipótesis planteadas respecto a la predicción, la corrección basada en ésta y la auto exposición, son factibles en aquellas situaciones identificadas a lo largo de la tesis pero que, sin embargo, no se puede garantizar que se cumplan de manera general. Por otra parte, se señalan como trabajo de investigación futuro algunas cuestiones nuevas y retos científicos que aparecen a partir del trabajo presentado en esta tesis. ABSTRACT This thesis discusses the correction methods used to compensate the variation of lighting conditions in colour image and video applications. These variations are such that Computer Vision algorithms that use colour features to describe objects mostly fail. Three research questions are formulated that define the framework of the thesis. The first question addresses the similarities of the photometric behaviour between images of dissimilar adjacent surfaces. Based on the analysis of the image formation model in dynamic situations, this thesis proposes a model that predicts the colour variations of the region of an image from the variations of the surrounded regions. This proposed model is called the Quotient Relational Model of Regions. This model is valid when the light sources illuminate all of the surfaces included in the model; these surfaces are placed close each other, have similar orientations, and are primarily Lambertian. Under certain circumstances, a linear combination is established between the photometric responses of the regions. Previous work that proposed such a relational model was not found in the scientific literature. The second question examines whether those similarities could be used to correct the unknown photometric variations in an unknown region from the known adjacent regions. A method is proposed, called Linear Correction Mapping, which is capable of providing an affirmative answer under the circumstances previously characterised. A training stage is required to determine the parameters of the model. The method for single camera scenarios is extended to cover non-overlapping multi-camera architectures. To this extent, only several image samples of the same object acquired by all of the cameras are required. Furthermore, both the light variations and the changes in the camera exposure settings are covered by correction mapping. Every image correction method is unsuccessful when the image of the object to be corrected is overexposed or the signal-to-noise ratio is very low. Thus, the third question refers to the control of the acquisition process to obtain an optimal exposure in uncontrolled light conditions. A Camera Exposure Control method is proposed that is capable of holding a suitable exposure provided that the light variations can be collected within the dynamic range of the camera. Each one of the proposed methods was evaluated individually. The methodology of the experiments consisted of first selecting some scenarios that cover the representative situations for which the methods are theoretically valid. Linear Correction Mapping was validated using three object re-identification applications (vehicles, faces and persons) based on the object colour distributions. Camera Exposure Control was proved in an outdoor parking scenario. In addition, several performance indicators were defined to objectively compare the results with other relevant state of the art correction and auto-exposure methods. The results of the evaluation demonstrated that the proposed methods outperform the compared ones in the most situations. Based on the obtained results, the answers to the above-described research questions are affirmative in limited circumstances, that is, the hypothesis of the forecasting, the correction based on it, and the auto exposure are feasible in the situations identified in the thesis, although they cannot be guaranteed in general. Furthermore, the presented work raises new questions and scientific challenges, which are highlighted as future research work.
Resumo:
Actualmente, la gestión de sistemas de Manejo Integrado de Plagas (MIP) en cultivos hortícolas tiene por objetivo priorizar los métodos de control no químicos en detrimento del consumo de plaguicidas, según recoge la directiva europea 2009/128/CE ‘Uso Sostenible de Plaguicidas’ (OJEC, 2009). El uso de agentes de biocontrol como alternativa a la aplicación de insecticidas es un elemento clave de los sistemas MIP por sus innegables ventajas ambientales que se utiliza ampliamente en nuestro país (Jacas y Urbaneja, 2008). En la región de Almería, donde se concentra el 65% de cultivo en invernadero de nuestro país (47.367 ha), MIP es la principal estrategia en pimiento (MAGRAMA, 2014), y comienza a serlo en otros cultivos como tomate o pepino. El cultivo de pepino, con 8.902 ha (MAGRAMA, 2013), tiene un protocolo semejante al pimiento (Robledo et al., 2009), donde la única especie de pulgón importante es Aphis gossypii Glover. Sin embargo, pese al continuo incremento de la superficie de cultivo agrícola bajo sistemas MIP, los daños originados por virosis siguen siendo notables. Algunos de los insectos presentes en los cultivos de hortícolas son importantes vectores de virus, como los pulgones, las moscas blancas o los trips, cuyo control resulta problemático debido a su elevada capacidad para transmitir virus vegetales incluso a una baja densidad de plaga (Holt et al., 2008; Jacas y Urbaneja, 2008). Las relaciones que se establecen entre los distintos agentes de un ecosistema son complejas y muy específicas. Se ha comprobado que, pese a que los enemigos naturales reducen de manera beneficiosa los niveles de plaga, su incorporación en los sistemas planta-insecto-virus puede desencadenar complicadas interacciones con efectos no deseables (Dicke y van Loon, 2000; Jeger et al., 2011). Así, los agentes de biocontrol también pueden inducir a que los insectos vectores modifiquen su comportamiento como respuesta al ataque y, con ello, el grado de dispersión y los patrones de distribución de las virosis que transmiten (Bailey et al., 1995; Weber et al., 1996; Hodge y Powell, 2008a; Hodge et al., 2011). Además, en ocasiones el control biológico por sí solo no es suficiente para controlar determinadas plagas (Medina et al., 2008). Entre los métodos que se pueden aplicar bajo sistemas MIP están las barreras físicas que limitan la entrada de plagas al interior de los invernaderos o interfieren con su movimiento, como pueden ser las mallas anti-insecto (Álvarez et al., 2014), las mallas fotoselectivas (Raviv y Antignus, 2004; Weintraub y Berlinger, 2004; Díaz y Fereres, 2007) y las mallas impregnadas en insecticida (Licciardi et al., 2008; Martin et al., 2014). Las mallas fotoselectivas reducen o bloquean casi por completo la transmisión de radiación UV, lo que interfiere con la visión de los insectos y dificulta o impide la localización del cultivo y su establecimiento en el mismo (Raviv y Antignus, 2004; Weintraub, 2009). Se ha comprobado cómo su uso puede controlar los pulgones y las virosis en cultivo de lechuga (Díaz et al., 2006; Legarrea et al., 2012a), así como la mosca blanca, los trips y los ácaros, y los virus que estos transmiten en otros cultivos (Costa y Robb, 1999; Antignus et al., 2001; Kumar y Poehling, 2006; Doukas y Payne, 2007a; Legarrea et al., 2010). Sin embargo, no se conoce perfectamente el modo de acción de estas barreras, puesto que existe un efecto directo sobre la plaga y otro indirecto mediado por la planta, cuya fisiología cambia al desarrollarse en ambientes con falta de radiación UV, y que podría afectar al ciclo biológico de los insectos fitófagos (Vänninen et al., 2010; Johansen et al., 2011). Del mismo modo, es necesario estudiar la compatibilidad de esta estrategia con los enemigos naturales de las plagas. Hasta la fecha, los estudios han evidenciado que los agentes de biocontrol pueden realizar su actividad bajo ambientes pobres en radiación UV (Chyzik et al., 2003; Chiel et al., 2006; Doukas y Payne, 2007b; Legarrea et al., 2012c). Otro método basado en barreras físicas son las mallas impregnadas con insecticidas, que se han usado tradicionalmente en la prevención de enfermedades humanas transmitidas por mosquitos (Martin et al., 2006). Su aplicación se ha ensayado en agricultura en ciertos cultivos al aire libre (Martin et al., 2010; Díaz et al., 2004), pero su utilidad en cultivos protegidos para prevenir la entrada de insectos vectores en invernadero todavía no ha sido investigada. Los aditivos se incorporan al tejido durante el proceso de extrusión de la fibra y se liberan lentamente actuando por contacto en el momento en que el insecto aterriza sobre la malla, con lo cual el riesgo medioambiental y para la salud humana es muy limitado. Los plaguicidas que se emplean habitualmente suelen ser piretroides (deltametrina o bifentrín), aunque también se ha ensayado dicofol (Martin et al., 2010) y alfa-cipermetrina (Martin et al., 2014). Un factor que resulta de vital importancia en este tipo de mallas es el tamaño del poro para facilitar una buena ventilación del cultivo, al tiempo que se evita la entrada de insectos de pequeño tamaño como las moscas blancas (Bethke y Paine, 1991; Muñoz et al., 1999). Asimismo, se plantea la necesidad de estudiar la compatibilidad de estas mallas con los enemigos naturales. Es por ello que en esta Tesis Doctoral se plantea la necesidad de evaluar nuevas mallas impregnadas que impidan el paso de insectos de pequeño tamaño al interior de los invernaderos, pero que a su vez mantengan un buen intercambio y circulación de aire a través del poro de la malla. Así, en la presente Tesis Doctoral, se han planteado los siguientes objetivos generales a desarrollar: 1. Estudiar el impacto de la presencia de parasitoides sobre el grado de dispersión y los patrones de distribución de pulgones y las virosis que éstos transmiten. 2. Conocer el efecto directo de ambientes pobres en radiación UV sobre el comportamiento de vuelo de plagas clave de hortícolas y sus enemigos naturales. 3. Evaluar el efecto directo de la radiación UV-A sobre el crecimiento poblacional de pulgones y mosca blanca, y sobre la fisiología de sus plantas hospederas, así como el efecto indirecto de la radiación UV-A en ambas plagas mediado por el crecimiento de dichas planta hospederas. 4. Caracterización de diversas mallas impregnadas en deltametrina y bifentrín con diferentes propiedades y selección de las óptimas para el control de pulgones, mosca blanca y sus virosis asociadas en condiciones de campo. Estudio de su compatibilidad con parasitoides. ABSTRACT Insect vectors of plant viruses are the main agents causing major economic losses in vegetable crops grown under protected environments. This Thesis focuses on the implementation of new alternatives to chemical control of insect vectors under Integrated Pest Management programs. In Spain, biological control is the main pest control strategy used in a large part of greenhouses where horticultural crops are grown. The first study aimed to increase our knowledge on how the presence of natural enemies such as Aphidius colemani Viereck may alter the dispersal of the aphid vector Aphis gossypii Glover (Chapter 4). In addition, it was investigated if the presence of this parasitoid affected the spread of aphid-transmitted viruses Cucumber mosaic virus (CMV, Cucumovirus) and Cucurbit aphid-borne yellows virus (CABYV, Polerovirus) infecting cucumber (Cucumis sativus L). SADIE methodology was used to study the distribution patterns of both the virus and its vector, and their degree of association. Results suggested that parasitoids promoted aphid dispersal in the short term, which enhanced CMV spread, though consequences of parasitism suggested potential benefits for disease control in the long term. Furthermore, A. colemani significantly limited the spread and incidence of the persistent virus CABYV in the long term. The flight activity of pests Myzus persicae (Sulzer), Bemisia tabaci (Gennadius) and Tuta absoluta (Meyrick), and natural enemies A. colemani and Sphaerophoria rueppellii (Weidemann) under UV-deficient environments was studied under field conditions (Chapter 5). One-chamber tunnels were covered with cladding materials with different UV transmittance properties. Inside each tunnel, insects were released from tubes placed in a platform suspended from the ceiling. Specific targets were located at different distances from the platform. The ability of aphids and whiteflies to reach their targets was diminished under UV-absorbing barriers, suggesting a reduction of vector activity under this type of nets. Fewer aphids reached distant traps under UV-absorbing nets, and significantly more aphids could fly to the end of the tunnels covered with non-UV blocking materials. Unlike aphids, differences in B. tabaci captures were mainly found in the closest targets. The oviposition of lepidopteran T. absoluta was also negatively affected by a UV-absorbing cover. The photoselective barriers were compatible with parasitism and oviposition of biocontrol agents. Apart from the direct response of insects to UV radiation, plant-mediated effects influencing insect performance were investigated (Chapter 6). The impact of UV-A radiation on the performance of aphid M. persicae and whitefly B. tabaci, and growth and leaf physiology of host plants pepper and eggplant was studied under glasshouse conditions. Plants were grown inside cages covered by transparent and UV-A-opaque plastic films. Plant growth and insect fitness were monitored. Leaves were harvested for chemical analysis. Pepper plants responded directly to UV-A by producing shorter stems whilst UV-A did not affect the leaf area of either species. UV-A-treated peppers had higher content of secondary metabolites, soluble carbohydrates, free amino acids and proteins. Such changes in tissue chemistry indirectly promoted aphid performance. For eggplants, chlorophyll and carotenoid levels decreased with supplemental UVA but phenolics were not affected. Exposure to supplemental UV-A had a detrimental effect on whitefly development, fecundity and fertility presumably not mediated by plant cues, as compounds implied in pest nutrition were unaltered. Lastly, the efficacy of a wide range of Long Lasting Insecticide Treated Nets (LLITNs) was studied under laboratory and field conditions. This strategy aimed to prevent aphids and whiteflies to enter the greenhouse by determining the optimum mesh size (Chapter 7). This new approach is based on slow release deltamethrin- and bifenthrin-treated nets with large hole sizes that allow improved ventilation of greenhouses. All LLITNs produced high mortality of M. persicae and A. gossypii although their efficacy decreased over time with sun exposure. It was necessary a net with hole size of 0.29 mm2 to exclude B. tabaci under laboratory conditions. The feasibility of two selected nets was studied in the field under a high insect infestation pressure in the presence of CMV- and CABYV-infected cucumber plants. Besides, the compatibility of parasitoid A. colemani with bifenthrin-treated nets was studied in parallel field experiments. Both nets effectively blocked the invasion of aphids and reduced the incidence of both viruses, however they failed to exclude whiteflies. We found that our LLITNs were compatible with parasitoid A. colemani. As shown, the role of natural enemies has to be taken into account regarding the dispersal of insect vectors and subsequent spread of plant viruses. The additional benefits of novel physicochemical barriers, such as photoselective and insecticide-impregnated nets, need to be considered in Integrated Pest Management programs of vegetable crops grown under protected environments.
Resumo:
En los últimos años, debido a la creciente preocupación por el calentamiento global y el cambio climático, uno de los retos más importantes a los que se enfrenta nuestra sociedad es el uso eficiente y económico de energía así como la necesidad correspondiente de reducir los gases de efecto invernadero (GEI). Las tecnologías de mezclas semicalientes se han convertido en un nuevo e importante tema de investigación en el campo de los materiales para pavimentos ya que ofrece una solución potencial para la reducción del consumo energético y las emisiones de GEI durante la producción y puesta en obra de las mezclas bituminosas. Por otro lado, los pavimentos que contienen polvo de caucho procedente de neumático fuera de uso, al hacer uso productos de desecho, ahorran energía y recursos naturales. Estos pavimentos ofrecen una resistencia mejorada a la formación de roderas, a la fatiga y a la fisuración térmica, reducen los costes de mantenimiento y el ruido del tráfico así como prolongan la vida útil del pavimento. Sin embargo, estas mezclas presentan un importante inconveniente: la temperatura de fabricación se debe aumentar en comparación con las mezclas asfálticas convencionales, ya que la incorporación de caucho aumenta la viscosidad del ligante y, por lo tanto, se producen mayores cantidades de emisiones de GEI. En la presente Tesis, la tecnología de mezclas semicalientes con aditivos orgánicos (Sasobit, Asphaltan A, Asphaltan B, Licomont) se incorporó a la de betunes de alta viscosidad modificados con caucho (15% y 20% de caucho) con la finalidad de dar una solución a los inconvenientes de mezclas con caucho gracias a la utilización de aditivos reductores de la viscosidad. Para este fin, se estudió si sería posible obtener una producción más sostenible de mezclas con betunes de alto contenido en caucho sin afectar significativamente su nivel de rendimiento mecánico. La metodología aplicada para evaluar y comparar las características de las mezclas consistió en la realización de una serie de ensayos de laboratorio para betunes y mezclas con caucho y con aditivos de mezclas semicalientes y de un análisis del ciclo de vida híbrido de la producción de mezclas semicalientes teniendo en cuenta la papel del aditivo en la cadena de suministro con el fin de cuantificar con precisión los beneficios de esta tecnología. Los resultados del estudio indicaron que la incorporación de los aditivos permite reducir la viscosidad de los ligantes y, en consecuencia, las temperaturas de producción y de compactación de las mezclas. Por otro lado, aunque la adición de caucho mejoró significativamente el comportamiento mecánico de los ligantes a baja temperatura reduciendo la susceptibilidad al fenómeno de fisuración térmica, la adición de las ceras aumentó ligeramente la rigidez. Los resultados del estudio reológico mostraron que la adición de porcentajes crecientes de caucho mejoraban la resistencia del pavimento con respecto a la resistencia a la deformación permanente a altas temperaturas y a la fisuración térmica a bajas temperaturas. Además, se observó que los aditivos mejoran la resistencia a roderas y la elasticidad del pavimento al aumentar el módulo complejo a altas temperaturas y al disminuir del ángulo de fase. Por otra parte, el estudio reológico confirmó que los aditivos estudiados aumentan ligeramente la rigidez a bajas temperaturas. Los ensayos de fluencia llevados a cabo con el reómetro demostraron una vez más la mejora en la elasticidad y en la resistencia a la deformación permanente dada por la adición de las ceras. El estudio de mezclas con caucho y aditivos de mezclas semicalientes llevado a cabo demostró que las temperaturas de producción/compactación se pueden disminuir, que las mezclas no experimentarían escurrimiento, que los aditivos no cambian significativamente la resistencia conservada y que cumplen la sensibilidad al agua exigida. Además, los aditivos aumentaron el módulo de rigidez en algunos casos y mejoraron significativamente la resistencia a la deformación permanente. Asimismo, a excepción de uno de los aditivos, las mezclas con ceras tenían la misma o mayor resistencia a la fatiga en comparación con la mezcla control. Los resultados del análisis de ciclo de vida híbrido mostraron que la tecnología de mezclas semicalientes es capaz de ahorrar significativamente energía y reducir las emisiones de GEI, hasta un 18% y 20% respectivamente, en comparación con las mezclas de control. Sin embargo, en algunos de los casos estudiados, debido a la presencia de la cera, la temperatura de fabricación debe reducirse en un promedio de 8 ºC antes de que los beneficios de la reducción de emisiones y el consumo de combustible puedan ser obtenidos. Los principales sectores contribuyentes a los impactos ambientales generados en la fabricación de mezclas semicalientes fueron el sector de los combustibles, el de la minería y el de la construcción. Due to growing concerns over global warming and climate change in recent years, one of the most important challenges facing our society is the efficient and economic use of energy, and with it, the corresponding need to reduce greenhouse gas (GHG) emissions. The Warm Mix Asphalt (WMA) technology has become an important new research topic in the field of pavement materials as it offers a potential solution for the reduction of energy consumption and GHG emissions during the production and placement of asphalt mixtures. On the other hand, pavements containing crumb-rubber modified (CRM) binders save energy and natural resources by making use of waste products. These pavements offer an improved resistance to rutting, fatigue and thermal cracking; reduce traffic noise and maintenance costs and prolong pavement life. These mixtures, however, present one major drawback: the manufacturing temperature is higher compared to conventional asphalt mixtures as the rubber lends greater viscosity to the binder and, therefore, larger amounts of GHG emissions are produced. In this dissertation the WMA technology with organic additives (Sasobit, Asphaltan A, Asphaltan B and Licomont) was applied to CRM binders (15% and 20% of rubber) in order to offer a solution to the drawbacks of asphalt rubber (AR) mixtures thanks to the use of fluidifying additives. For this purpose, this study sought to determine if a more sustainable production of AR mixtures could be obtained without significantly affecting their level of mechanical performance. The methodology applied in order to evaluate and compare the performance of the mixtures consisted of carrying out several laboratory tests for the CRM binders and AR mixtures with WMA additives (AR-WMA mixtures) and a hybrid input-output-based life cycle assessment (hLCA) of the production of WMA. The results of the study indicated that the incorporation of the organic additives were able to reduce the viscosity of the binders and, consequently, the production and compaction temperatures. On the other hand, although the addition of rubber significantly improved the mechanical behaviour of the binders at low temperatures reducing the susceptibility to thermal cracking phenomena, the addition of the waxes slightly increased the stiffness. Master curves showed that the addition of increasing percentages of rubber improved the resistance of the pavement regarding both resistance to permanent deformation at high temperatures and thermal cracking at low temperatures. In addition, the waxes improved the rutting resistance and the elasticity as they increased the complex modulus at high temperatures and decreased the phase angle. Moreover, master curves also attest that the WMA additives studied increase the stiffness at low temperatures. The creep tests carried out proved once again the improvement in the elasticity and in the resistance to permanent deformation given by the addition of the waxes. The AR-WMA mixtures studied have shown that the production/compaction temperatures can be decreased, that the mixtures would not experience binder drainage, that the additives did not significantly change the retained resistance and fulfilled the water sensitivity required. Furthermore, the additives increased the stiffness modulus in some cases and significantly improved the permanent deformation resistance. Except for one of the additives, the waxes had the same or higher fatigue resistance compared to the control mixture. The results of the hLCA demonstrated that the WMA technology is able to significantly save energy and reduce GHG emissions, up to 18% and 20%, respectively, compared to the control mixtures. However, in some of the case studies, due to the presence of wax, the manufacturing temperature at the asphalt plant must be reduced by an average of 8ºC before the benefits of reduced emissions and fuel usage can be obtained. The results regarding the overall impacts generated using a detailed production layer decomposition indicated that fuel, mining and construction sectors are the main contributors to the environmental impacts of manufacturing WMA mixtures.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
El 1 de enero de 2014 entró en vigor la Directiva Europea 2009/128/CE sobre uso sostenible de plaguicidas y el Real Decreto 1311/2012 por el cual se traspone dicha normativa comunitaria al ámbito nacional. Estos reglamentos establecen el marco legal por el que las explotaciones agrícolas deben cumplir los principios generales de la Gestión Integrada de Plagas (GIP). Los principios de la GIP dan preferencia a aquellos métodos de control que sean sostenibles y respetuosos con el medio ambiente, dando prioridad al control biológico, al físico y a otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos con los enemigos naturales es necesario en ocasiones para el adecuado manejo de las plagas en cultivos hortícolas. Por ello, el objetivo general de esta Tesis ha sido aportar conocimientos para la mejora del control de plagas en cultivos hortícolas, mediante la integración de estrategias de lucha biológica, física y química. La primera de las líneas de investigación de esta Tesis se centró en el estudio del efecto de la presencia dos depredadores, larvas Chrysoperla carnea y adultos de Adalia bipunctata, en la dispersión del virus de transmisión no persistente Cucumber mosaic virus (CMV) y del virus de transmisión persistente Cucurbit aphid-borne yellows virus (CABYV), transmitidos por el pulgón Aphis gosypii en cultivo de pepino. La tasa de transmisión de CMV fue baja para los dos tiempos de evaluación ensayados (1 y 5 días), debido al limitado movimiento de su vector A. gossypii. Las plantas que resultaron infectadas se localizaron próximas a la fuente de inóculo central y la presencia de ambos enemigos naturales no incrementó significativamente el porcentaje de plantas ocupadas por pulgones ni la tasa de transmisión de CMV. Los patrones de distribución de A. gossypii y de CMV tan solo fueron coincidentes en las proximidades de la planta central infectada en la que se liberaron los insectos. En los ensayos con CABYV, la presencia de C. carnea y de A. bipunctata respectivamente provocó un incremento significativo de la dispersión de A. gossypii tras 14 días, pero no tras 7 días desde la liberación de los insectos. La reducción en el número inicial de pulgones en la planta central infectada con CABYV fue siempre mayor tras la liberación de C. carnea en comparación con A. bipunctata. Sin embargo, la tasa de transmisión de CABYV y su distribución espacial no se vieron significativamente modificadas por la presencia de ninguno de los depredadores, ni tras 7 días ni tras 14 días desde el inicio de los ensayos. Al igual que se estudió el efecto de la presencia de enemigos naturales en el comportamiento de las plagas y en la epidemiología de las virosis que transmiten, en una segunda línea de investigación se evaluó el posible efecto del consumo de pulgones portadores de virus por parte de los enemigos naturales. Este trabajo se llevó a cabo en el Laboratorio de Ecotoxicología del Departamento de Entomología de la Universidade Federal de Lavras (UFLA) (Brasil). En él se evaluó la influencia en los parámetros biológicos del enemigo natural Chrysoperla externa al alimentarse de Myzus persicae contaminados con el virus de transmisión persistente Potato leafroll virus (PLRV). El consumo de M. persicae contaminados con PLRV incrementó significativamente la duración de la fase larvaria, reduciendo también la supervivencia en comparación a otras dos dietas a base de M. persicae no contaminados con el virus y huevos del lepidóptero Ephestia kuehniella. La duración de la fase de pupa de C. externa no difirió significativamente entre las dietas a base de pulgones contaminados con PLRV y pulgones no contaminados, pero ambas fueron menores que con la dieta con huevos de E. kuehniella. Sin embargo, ni la supervivencia en la fase de pupa ni los parámetros reproductivos de los adultos emergidos mostraron diferencias significativas entre las dietas evaluadas. Por el contrario, la supervivencia de los adultos durante los 30 primeros días desde su emergencia sí se vio significativamente afectada por la dieta, siendo al término de este periodo del 54% para aquellos adultos de C. externa que durante su fase larvaria consumieron pulgones con PLRV. Dentro de la GIP, una de las estrategias de carácter físico que se emplean para el control de plagas y enfermedades en cultivos hortícolas protegidos es el uso de plásticos con propiedades fotoselectivas de absorción de la radiación ultravioleta (UV). Por ello, la tercera línea de investigación de la Tesis se centró en el estudio de los efectos directos e indirectos (mediados por la planta) de condiciones especiales de baja radiación UV sobre el crecimiento poblacional del pulgón A. gossypii y los parámetros biológicos del enemigo natural C. carnea, así como sobre las plantas de pepino en las que se liberaron los insectos. Los ensayos se realizaron en jaulones dentro de invernadero, utilizándose en el primero de ellos plantas de pepino sanas, mientras que en el segundo las plantas de pepino fueron previamente infectadas con CABYV para estudiar de qué manera afectaba la incidencia del virus en las mismas condiciones. Las condiciones de baja radiación UV (bajo plástico Térmico Antivirus®) ejercieron un efecto directo en las fases iniciales del cultivo de pepino, promoviendo su crecimiento, mientras que en fases más avanzadas del cultivo indujeron un aumento en el contenido en nitrógeno de las plantas. Las plantas de pepino que fueron sometidas a mayor intensidad de radiación UV (bajo plástico Térmico Blanco®) al inicio del cultivo mostraron un engrosamiento significativo de las paredes de las células epidérmicas del haz de las hojas, así como de la cutícula. El uso del plástico Térmico Antivirus®, utilizado como barrera fotoselectiva para crear condiciones de baja radiación UV, no alteró con respecto al plástico Térmico Blanco® (utilizado como control) el desarrollo poblacional del pulgón A. gossypii ni los parámetros biológicos evaluados en el depredador C. carnea. En el segundo experimento, realizado con plantas infectadas con CABYV, la incidencia de la virosis enmascaró las diferencias encontradas en experimento con plantas sanas, reduciendo aparentemente la influencia de las distintas condiciones de radiación UV. Por último, para el desarrollo de las estrategias de GIP es importante estudiar los posibles efectos secundarios que los plaguicidas pueden tener en los enemigos naturales de las plagas. Es por ello que en la Tesis se evaluaron la toxicidad y los efectos subletales (fecundidad y fertilidad) de flonicamida, flubendiamida, metaflumizona, spirotetramat, sulfoxaflor y deltametrina en los enemigos naturales C. carnea y A. bipunctata. Los efectos secundarios fueron evaluados por contacto residual tanto para larvas como para adultos de ambos enemigos naturales en condiciones de laboratorio. Flonicamida, flubendiamida, metaflumizona y spirotetramat fueron inocuos para larvas de último estadio y adultos de C. carnea y A. bipunctata. Por este motivo, estos insecticidas se presentan como buenos candidatos para ser incorporados dentro de programas de GIP en combinación con estos enemigos naturales para el control de plagas de cultivos hortícolas. Sulfoxaflor fue ligeramente tóxico para adultos de C. carnea y altamente tóxico para larvas de último estadio de A. bipunctata. Para A. bipunctata, sulfoxaflor y deltametrina fueron los compuestos más dañinos. Deltametrina fue también el compuesto más tóxico para larvas y adultos de C. carnea. Por tanto, el uso de deltametrina y sulfoxaflor en programas de GIP debería tomarse en consideración cuando se liberasen cualquiera de estos dos enemigos naturales debido al comportamiento tóxico que mostraron en condiciones de laboratorio. ABSTRACT On 1 January 2014 came into effect the Directive 2009/128/EC of the European Parliament about sustainable use of pesticides and the Royal Decree 1311/2012 that transposes the regulation to the Spanish level. These regulations establish the legal framework that agricultural holdings must adhere to in order to accomplish the general principles of Integrated Pest Management (IPM). The guidelines of IPM give priority to sustainable and eco-friendly pest control techniques, such as biological and physical measures. Nevertheless, the use of pesticides that are selective to natural enemies is sometimes a necessary strategy to implement accurate pest management programs in horticultural protected crops. Therefore, the general objective of this Thesis was to contribute to the improvement of pest management strategies in horticultural crops, by means of the integration of biological, physical and chemical techniques. The first research line of this Thesis was focused on the evaluation of the effects of two aphidophagous predators, Chrysoperla carnea larvae and Adalia bipunctata adults, on the spread of the non-persistently transmitted Cucumber mosaic virus (CMV, Cucumovirus) and the persistently transmitted Cucurbit aphid-borne yellows virus (CABYV, Polerovirus), by the aphid vector Aphis gossypii in a cucumber crop under greenhouse conditions. The CMV transmission rate was generally low, both after 1 and 5 days, due to the limited movement of its aphid vector A. gossypii. Infected plants were mainly located around the central virusinfected source plant, and the percentage of aphid occupation and CMV-infected plants did not differ significantly in absence and presence of natural enemies. The distribution patterns of A. gossypii and CMV were only coincident close to the central plant where insects were released. In the CABYV experiments, the presence of C. carnea larvae and A. bipunctata adults induced significant A. gossypii dispersal after 14 days but not after 7 days. The reduction in the initial aphid population established in the central plant was always higher for C. carnea than for A. bipunctata. Nevertheless, CABYV spread was not significantly modified by the presence of each predator either in the short term (7 days) or in the long term (14 days). Furthermore, the percentage of CABYV-infected plants did not significantly differ when each natural enemy was present in any evaluation period. It is important to evaluate the influence that natural enemies have on pest dynamics and on the spread of viral diseases, but it should be also taken into account the possible effect on the performance of natural enemies when they feed on preys that act as vectors of viruses. Thus, in a second research line developed in the Laboratory of Ecotoxicology, Department of Entomology, of the Universidade Federal de Lavras (UFLA) (Brazil), it was evaluated the performance of Chrysoperla externa under the condition of consuming Myzus persicae acting as vector of Potato leafroll virus (PLRV). The diet composed of PLRV-infected M. persicae significantly increased the length and reduced the survival rate, of the larval period in regard to the other two diets, composed of non-infected M. persicae and Ephestia kuehniella eggs. The lengths of the pupal stage were not significantly different between the aphid diets, but both were significantly shorter than that of E. kuehniella eggs. Neither pupal survival nor reproductive parameters revealed significant differences among the diets. Nevertheless, the adult survival curves during the first 30 days after emergence showed significant differences, reaching at the end of this interval a value of 54% for those C. externa adults fed on PLRVinfected aphids during their larval period. According to the IPM guidelines, one of the physical strategies for the control of pests and diseases in horticultural protected crops is the use of plastic films with photoselective properties that act as ultraviolet (UV) radiation blocking barriers. In this sense, the third research line of the Thesis dealt with the study of the direct and plant-mediated influence of low UV radiation conditions on the performance of the aphid A. gossypii and on the biological parameters of the natural enemy C. carnea, as well as on the cucumber plants where insects were released. The experiments were conducted inside cages under greenhouse conditions, using for the first one healthy cucumber plants, while for the second experiment the cucumber plants were previously infected with CABYV in order to assess the influence of the virus in the same conditions. The low UV radiation conditions (under Térmico Antivirus® plastic film) seemed to exert a direct effect in the early stages of cucumber plants, enhancing their growth, and in an increasing nitrogen content at further developmental stages. The higher UV radiation exposure (under Térmico Blanco® plastic film) in the early stages of the cucumber crop induced the thickening of the adaxial epidermal cell walls and the cuticle of leaves. The use of Térmico Antivirus® plastic film as a photoselective barrier to induce low UV radiation conditions did not modify, in regard to Térmico Blanco® plastic film (used as control), neither the population development of A. gossypii nor the studied biological parameters of the predator C. carnea. In the second experiment, done with CABYV-infected cucumber plants, the incidence of the virus seemed to mask the direct and plant-mediated influence of the different UV radiation conditions. In last term, for the development of IPM strategies it is important to study the potential side effects that pesticides might have on natural enemies. For this reason, in the Thesis were tested the toxicity and sublethal effects (fecundity and fertility) of flonicamid, flubendiamide, metaflumizone, spirotetramat, sulfoxaflor and deltamethrin on the natural enemies C. carnea and A. bipunctata. The side effects of the active ingredients of the insecticides were evaluated with residual contact tests for the larvae and adults of these predators under laboratory conditions. Flonicamid, flubendiamide, metaflumizone and spirotetramat were innocuous to last instar larvae and adults of C. carnea and A. bipunctata. Therefore, these pesticides are promising candidates for being incorporated into IPM programs in combination with these natural enemies for the control of particular greenhouse pests. In contrast, sulfoxaflor was slightly toxic to adults of C. carnea and was highly toxic to last instar larvae of A. bipunctata. For A. bipunctata, sulfoxaflor and deltamethrin were the most damaging compounds. Deltamethrin was also the most toxic compound to larvae and adults of C. carnea. In accordance with this fact, the use of sulfoxaflor and deltamethrin in IPM strategies should be taken into consideration when releasing either of these biological control agents, due to the toxic behavior observed under laboratory conditions.
Resumo:
El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.