19 resultados para compensation for lodgment of caveat without reasonable cause
em Universidad Politécnica de Madrid
Resumo:
Con esta disertación se pretenden resolver algunos de los problemas encontrados actualmente en la recepción de señales de satélites bajo dos escenarios particularmente exigentes: comunicaciones de Espacio Profundo y en banda Ka. Las comunicaciones con sondas de Espacio Profundo necesitan grandes aperturas en tierra para poder incrementar la velocidad de datos. La opción de usar antennas con diámetro mayor de 35 metros tiene serios problemas, pues antenas tan grandes son caras de mantener, difíciles de apuntar, pueden tener largos tiempo de reparación y además tienen una efeciencia decreciente a medida que se utilizan bandas más altas. Soluciones basadas en agrupaciones de antenas de menor tamaño (12 ó 35 metros) son mas ecónomicas y factibles técnicamente. Las comunicaciones en banda Ka tambien pueden beneficiarse de la combinación de múltiples antennas. Las antenas de menor tamaño son más fáciles de apuntar y además tienen un campo de visión mayor. Además, las técnicas de diversidad espacial pueden ser reemplazadas por una combinación de antenas para así incrementar el margen del enlace. La combinación de antenas muy alejadas sobre grandes anchos de banda, bien por recibir una señal de banda ancha o múltiples de banda estrecha, es complicada técnicamente. En esta disertación se demostrará que el uso de conformador de haz en el dominio de la frecuencia puede ayudar a relajar los requisitos de calibración y, al mismo tiempo, proporcionar un mayor campo de visión y mayores capacidades de ecualización. Para llevar esto a cabo, el trabajo ha girado en torno a tres aspectos fundamentales. El primero es la investigación bibliográfica del trabajo existente en este campo. El segundo es el modelado matemático del proceso de combinación y el desarrollo de nuevos algoritmos de estimación de fase y retardo. Y el tercero es la propuesta de nuevas aplicaciones en las que usar estas técnicas. La investigación bibliográfica se centra principalmente en los capítulos 1, 2, 4 y 5. El capítulo 1 da una breve introducción a la teoría de combinación de antenas de gran apertura. En este capítulo, los principales campos de aplicación son descritos y además se establece la necesidad de compensar retardos en subbandas. La teoría de bancos de filtros se expone en el capítulo 2; se selecciona y simula un banco de filtros modulado uniformemente con fase lineal. Las propiedades de convergencia de varios filtros adaptativos se muestran en el capítulo 4. Y finalmente, las técnicas de estimación de retardo son estudiadas y resumidas en el capítulo 5. Desde el punto de vista matemático, las principales contribución de esta disertación han sido: • Sección 3.1.4. Cálculo de la desviación de haz de un conformador de haz con compensación de retardo en pasos discretos en frecuencia intermedia. • Sección 3.2. Modelo matemático de un conformador de haz en subbandas. • Sección 3.2.2. Cálculo de la desviación de haz de un conformador de haz en subbandas con un buffer de retardo grueso. • Sección 3.2.4. Análisis de la influencia de los alias internos en la compensación en subbandas de retardo y fase. • Sección 3.2.4.2. Cálculo de la desviación de haz de un conformador de haz con compensación de retardo en subbandas. • Sección 3.2.6. Cálculo de la ganancia de relación señal a ruido de la agrupación de antenas en cada una de las subbandas. • Sección 3.3.2. Modelado de la función de transferencia de la agrupación de antenas bajo errores de estimación de retardo. • Sección 3.3.3. Modelado de los efectos de derivas de fase y retardo entre actualizaciones de las estimaciones. • Sección 3.4. Cálculo de la directividad de la agrupación de antenas con y sin compensación de retardos en subbandas. • Sección 5.2.6. Desarrollo de un algorimo para estimar la fase y el retardo entre dos señales a partir de su descomposición de subbandas bajo entornos estacionarios. • Sección 5.5.1. Desarrollo de un algorimo para estimar la fase, el retardo y la deriva de retardo entre dos señales a partir de su descomposición de subbandas bajo entornos no estacionarios. Las aplicaciones que se pueden beneficiar de estas técnicas son descritas en el capítulo 7: • Sección 6.2. Agrupaciones de antenas para comunicaciones de Espacio Profundo con capacidad multihaz y sin requisitos de calibración geométrica o de retardo de grupo. • Sección 6.2.6. Combinación en banda ancha de antenas con separaciones de miles de kilómetros, para recepción de sondas de espacio profundo. • Secciones 6.4 and 6.3. Combinación de estaciones remotas en banda Ka en escenarios de diversidad espacial, para recepción de satélites LEO o GEO. • Sección 6.3. Recepción de satélites GEO colocados con arrays de antenas multihaz. Las publicaciones a las que ha dado lugar esta tesis son las siguientes • A. Torre. Wideband antenna arraying over long distances. Interplanetary Progress Report, 42-194:1–18, 2013. En esta pulicación se resumen los resultados de las secciones 3.2, 3.2.2, 3.3.2, los algoritmos en las secciones 5.2.6, 5.5.1 y la aplicación destacada en 6.2.6. • A. Torre. Reception of wideband signals from geostationary collocated satellites with antenna arrays. IET Communications, Vol. 8, Issue 13:2229–2237, September, 2014. En esta segunda se muestran los resultados de la sección 3.2.4, el algoritmo en la sección 5.2.6.1 , y la aplicación mostrada en 6.3. ABSTRACT This dissertation is an attempt to solve some of the problems found nowadays in the reception of satellite signals under two particular challenging scenarios: Deep Space and Ka-band communications. Deep Space communications require from larger apertures on ground in order to increase the data rate. The option of using single dishes with diameters larger than 35 meters has severe drawbacks. Such antennas are expensive to maintain, prone to long downtimes, difficult to point and have a degraded performance in high frequency bands. The array solution, either with 12 meter or 35 meter antennas is deemed to be the most economically and technically feasible solution. Ka-band communications can also benefit from antenna arraying technology. The smaller aperture antennas that make up the array are easier to point and have a wider field of view allowing multiple simultaneous beams. Besides, site diversity techniques can be replaced by pure combination in order to increase link margin. Combination of far away antennas over a large bandwidth, either because a wideband signal or multiple narrowband signals are received, is a demanding task. This dissertation will show that the use of frequency domain beamformers with subband delay compensation can help to ease calibration requirements and, at the same time, provide with a wider field of view and enhanced equalization capabilities. In order to do so, the work has been focused on three main aspects. The first one is the bibliographic research of previous work on this subject. The second one is the mathematical modeling of the array combination process and the development of new phase/delay estimation algorithms. And the third one is the proposal of new applications in which these techniques can be used. Bibliographic research is mainly done in chapters 1, 2, 4 and 5. Chapter 1 gives a brief introduction to previous work in the field of large aperture antenna arraying. In this chapter, the main fields of application are described and the need for subband delay compensation is established. Filter bank theory is shown in chapter 2; a linear phase uniform modulated filter bank is selected and simulated under diverse conditions. The convergence properties of several adaptive filters are shown in chapter 4. Finally, delay estimation techniques are studied and summarized in chapter 5. From a mathematical point of view, the main contributions of this dissertation have been: • Section 3.1.4. Calculation of beam squint of an IF beamformer with delay compensation at discrete time steps. • Section 3.2. Establishment of a mathematical model of a subband beamformer. • Section 3.2.2. Calculation of beam squint in a subband beamformer with a coarse delay buffer. • Section 3.2.4. Analysis of the influence of internal aliasing on phase and delay subband compensation. • Section 3.2.4.2. Calculation of beam squint of a beamformer with subband delay compensation. • Section 3.2.6. Calculation of the array SNR gain at each of the subbands. • Section 3.3.2. Modeling of the transfer function of an array subject to delay estimation errors. • Section 3.3.3. Modeling of the effects of phase and delay drifts between estimation updates. • Section 3.4. Calculation of array directivity with and without subband delay compensation. • Section 5.2.6. Development of an algorithm to estimate relative delay and phase between two signals from their subband decomposition in stationary environments. • Section 5.5.1. Development of an algorithm to estimate relative delay rate, delay and phase between two signals from their subband decomposition in non stationary environments. The applications that can benefit from these techniques are described in chapter 7: • Section 6.2. Arrays of antennas for Deep Space communications with multibeam capacity and without geometric or group delay calibration requirement. • Section 6.2.6. Wideband antenna arraying over long distances, in the range of thousands of kilometers, for reception of Deep Space probes. • Sections 6.4 y 6.3. Combination of remote stations in Ka-band site diversity scenarios for reception of LEO or GEO satellites. • Section 6.3. Reception of GEO collocated satellites with multibeam antenna arrays. The publications that have been made from the work in this dissertation are • A. Torre. Wideband antenna arraying over long distances. Interplanetary Progress Report, 42-194:1–18, 2013. This article shows the results in sections 3.2, 3.2.2, 3.3.2, the algorithms in sections 5.2.6, 5.5.1 and the application in section 6.2.6. • A. Torre. Reception of wideband signals from geostationary collocated satellites with antenna arrays. IET Communications, Vol. 8, Issue 13:2229–2237, September, 2014. This second article shows among others the results in section 3.2.4, the algorithm in section 5.2.6.1 , and the application in section 6.3.
Resumo:
This study investigates the effect of price and travel time fairness and spatial equity in transit provision on the perceived transit service quality, willingness to pay, and habitual frequency of use. Based on the theory of planned behavior, we developed a web-based questionnaire for revealed preferences data collection. The survey was administered among young people in Copenhagen and Lisbon to explore the transit perceptions and use under different economic and transit provision conditions. The survey yielded 499 questionnaires, analyzed by means of structural equation models. Results show that higher perceived fairness relates positively to higher perceived quality of transit service and higher perceived ease of paying for transit use. Higher perceived spatial equity in service provision is associated with higher perceived service quality. Higher perceived service quality relates to higher perceived ease of payment, which links to higher frequency of transit use.
Resumo:
La Directiva 2003/10/CE del Parlamento Europeo y del Consejo, del 6 de febrero de 2003, específica con arreglo al apartado 1 del artículo 16 de la Directiva 89/391/CEE las disposiciones mínimas de seguridad y de salud relativas a la exposición de los trabajadores a los riesgos derivados de los agentes físicos (ruido). En la industria musical, y en concreto en los músicos de orquesta, una exposición de más de ocho horas al día a un nivel de presión sonora de 80dB(A) o más es algo muy común. Esta situación puede causar a los trabajadores daños auditivos como la hiperacusia, hipoacusia, tinitus o ruptura de la membrana basilar entre otros. Esto significa que deben tomarse medidas para implementar las regulaciones de la forma más razonable posible para que la interpretación del músico, la dinámica y el concepto musical que se quiere transmitir al público se vea lo menos afectada posible. Para reducir la carga auditiva de los músicos de orquesta frente a fuertes impactos sonoros provenientes de los instrumentos vecinos, se está investigando sobre el uso de unos paneles acústicos que colocados en puntos estratégicos de la orquesta pueden llegar a reducir el impacto sonoro sobre el oído hasta 20dB. Los instrumentos de viento metal y de percusión son los responsables de la mayor emisión de presión sonora. Para proteger el oído de los músicos frente a estos impactos, se colocan los paneles en forma de barrera entre dichos instrumentos y los músicos colocados frente a ellos. De esta forma se protege el oído de los músicos más afectados. Para ver el efecto práctico que producen estos paneles en un conjunto orquestal, se realizan varias grabaciones en los ensayos y conciertos de varias orquestas. Los micrófonos se sitúan a la altura del oído y a una distancia de no más de 10cm de la oreja de varios de los músicos más afectados y de los músicos responsables de la fuerte emisión sonora. De este modo se puede hacer una comparación de los niveles de presión sonora que percibe cada músico y evaluar las diferencias de nivel existentes entre ambos. Así mismo se utilizan configuraciones variables de los paneles para comparar las diferencias de presión sonora que existen entre las distintas posibilidades de colocarlos y decidir así sobre la mejor ubicación y configuración de los mismos. A continuación, una vez obtenidos las muestras de audio y los diferentes archivos de datos medidos con un analizador de audio en distintas posiciones de la orquesta, todo ello se calibra y analiza utilizando un programa desarrollado en Matlab, para evaluar el efecto de los paneles sobre la percepción auditiva de los músicos, haciendo especial hincapié en el análisis de las diferencias de nivel de presión sonora (SPL). Mediante el cálculo de la envolvente de las diferencias de nivel, se evalúa de un modo estadístico el efecto de atenuación de los paneles acústicos en los músicos de orquesta. El método está basado en la probabilidad estadística de varias muestras musicales ya que al tratarse de música tocada en directo, la dinámica y la sincronización entre los músicos varía según el momento en que se toque. Estos factores junto con el hecho de que la partitura de cada músico es diferente dificulta la comparación entre dos señales grabadas en diferentes puntos de la orquesta. Se necesita por lo tanto de varias muestras musicales para evaluar el efecto de atenuación de los paneles en las distintas configuraciones mencionadas anteriormente. El estudio completo del efecto de los paneles como entorno que influye en los músicos de orquesta cuando están sobre el escenario, tiene como objetivo la mejora de sus condiciones de trabajo. Abstract For several years, the European Union has been adopting many laws and regulations to protect and give more security to people who are exposed to some risk in their job. Being exposed to a loud sound pressure level during many hours in the job runs the risk of hearing damage. Particularly in the field of music, the ear is the most important working tool. Not taking care of the ear can cause some damage such as hearing loss, tinnitus, hyperacusis, diplacusis, etc. This could have an impact on the efficiency and satisfaction of the musicians when they are playing, which could also cause stress problems. Orchestra musicians, as many other workers in this sector, are usually exposed to a sound level of 80dB(A) or more during more than eight hours per day. It means that they must satisfy the law and their legal obligations to avoid health problems proceeding from their job. Putting into practice the new regulations is a challenge for orchestras. They must make sure that the repertoire, with its dynamic, balance and feeling, is not affected by the reduction of sound levels imposed by the law. This study tries to investigate the benefits and disadvantages of using shields as a hearing protector during rehearsals and orchestral concerts.
Resumo:
The numerical analysis of certain safety related problems presents serious difficulties, since the large number of components present leads to huge finite elementmodels that can only be solved by using large and expensive computers or by making rough approaches to the problem. Tangling, or clashing, in the turbine of a jet engine airplane is an example of such problems. This is caused by the crash and friction between rotor and stator blades in the turbine after an eventual shaft failure. When facing the study of an event through numerical modelling, the accurate simulation of this problem would require the engineer to model all the rotor and stator blades existing in the turbine stage, using a small element size in all pieces. Given that the number of stator and rotor blades is usually around 200, such simulations would require millions of elements. This work presents a new numerical methodology, specifically developed for the accurate modelling of the tangling problem that, depending on the turbine configuration, is able to reduce the number of nodes up to an order of magnitude without losing accuracy. The methodology, which benefits from the cyclic configuration of turbines, is successfully applied to the numerical analysis of a hypothetical tangling event in a turbine, providing valuable data such as the rotating velocity decrease of the turbine, the braking torque and the damage suffered by the blades. The methodology is somewhat general and can be applied to any problem in which damage caused by the interaction between a rotating and static piece is to be analysed.
Resumo:
In the photovoltaic field, the back contact solar cells technology has appeared as an alternative to the traditional silicon modules. This new type of cells places both positive and negative contacts on the back side of the cells maximizing the exposed surface to the light and making easier the interconnection of the cells in the module. The Emitter Wrap-Through solar cell structure presents thousands of tiny holes to wrap the emitter from the front surface to the rear surface. These holes are made in a first step over the silicon wafers by means of a laser drilling process. This step is quite harmful from a mechanical point of view since holes act as stress concentrators leading to a reduction in the strength of these wafers. This paper presents the results of the strength characterization of drilled wafers. The study is carried out testing the samples with the ring on ring device. Finite Element models are developed to simulate the tests. The stress concentration factor of the drilled wafers under this load conditions is determined from the FE analysis. Moreover, the material strength is characterized fitting the fracture stress of the samples to a three-parameter Weibull cumulative distribution function. The parameters obtained are compared with the ones obtained in the analysis of a set of samples without holes to validate the method employed for the study of the strength of silicon drilled wafers.
Resumo:
The latest video coding standards developed, like HEVC (High Efficiency Video Coding, approved in January 2013), require for their implementation the use of devices able to support a high computational load. Considering that currently it is not enough the usage of one unique Digital Signal Processor (DSP), multicore devices have appeared recently in the market. However, due to its novelty, the working methodology that allows produce solutions for these configurations is in a very initial state, since currently the most part of the work needs to be performed manually. In consequence, the objective set consists on finding methodologies that ease this process. The study has been focused on extend a methodology, under development, for the generation of solutions for PCs and embedded systems. During this study, the standards RVC (Reconfigurable Video Coding) and HEVC have been employed, as well as DSPs of the Texas Instruments company. In its development, it has been tried to address all the factors that influence both the development and deployment of these new implementations of video decoders, ranging from tools up to aspects of the partitioning of algorithms, without this can cause a drop in application performance. The results of this study are the description of the employed methodology, the characterization of the software migration process and performance measurements for the HEVC standard in an RVC-based implementation. RESUMEN Los estándares de codificación de vídeo desarrollados más recientemente, como HEVC (High Efficiency Video Coding, aprobado en enero de 2013), requieren para su implementación el uso de dispositivos capaces de soportar una elevada carga computacional. Teniendo en cuenta que actualmente no es suficiente con utilizar un único Procesador Digital de Señal (DSP), han aparecido recientemente dispositivos multinúcleo en el mercado. Sin embargo, debido a su novedad, la metodología de trabajo que permite elaborar soluciones para tales configuraciones se encuentra en un estado muy inicial, ya que actualmente la mayor parte del trabajo debe realizarse manualmente. En consecuencia, el objetivo marcado consiste en encontrar metodologías que faciliten este proceso. El estudio se ha centrado en extender una metodología, en desarrollo, para la generación de soluciones para PC y sistemas empotrados. Durante dicho estudio se han empleado los estándares RVC (Reconfigurable Video Coding) y HEVC, así como DSPs de la compañía Texas Instruments. En su desarrollo se ha tratado de atender a todos los factores que influyen tanto en el desarrollo como en la puesta en marcha de estas nuevas implementaciones de descodificadores de vídeo; abarcando desde las herramientas a utilizar hasta aspectos del particionado de los algoritmos, sin que por ello se produzca una reducción en el rendimiento de las aplicaciones. Los resultados de este estudio son una descripción de la metodología empleada, la caracterización del proceso de migración de software, y medidas de rendimiento para el estándar HEVC en una implementación basada en RVC.
Resumo:
Actualmente, la reducción de materias activas (UE) y la implantación de la nueva Directiva comunitaria 2009/128/ que establece el marco de actuación para conseguir un uso sostenible de los plaguicidas químicos y la preferencia de uso de métodos biológicos, físicos y otros no químicos, obliga a buscar métodos de control menos perjudiciales para el medio ambiente. El control biológico (CB) de enfermedades vegetales empleando agentes de control biológico (ACB) se percibe como una alternativa más segura y con menor impacto ambiental, bien solos o bien como parte de una estrategia de control integrado. El aislado 212 de Penicillium oxalicum (PO212) (ATCC 201888) fue aislado originalmente de la micoflora del suelo en España y ha demostrado ser un eficaz ACB frente a la marchitez vascular del tomate. Una vez identificado y caracterizado el ACB se inició el periodo de desarrollo del mismo poniendo a punto un método de producción en masa de sus conidias. Tras lo cual se inició el proceso de formulación del ACB deshidratando las conidias para su preservación durante un período de tiempo mayor mediante lecho fluido. Finalmente, se han desarrollado algunos formulados que contienen de forma individual diferentes aditivos que han alargado su viabilidad, estabilidad y facilitado su manejo y aplicación. Sin embargo, es necesario seguir trabajando en la mejora de su eficacia de biocontrol. El primer objetivo de esta Tesis se ha centrado en el estudio de la interacción ACB-patógeno-huésped que permita la actuación de P.oxalicum en diferentes patosistemas. Uno de los primeros puntos que se abordan dentro de este objetivo es el desarrollo de nuevas FORMULACIONES del ACB que incrementen su eficacia frente a la marchitez vascular del tomate. Las conidias formuladas de PO212 se obtuvieron por la adición conjunta de distintos aditivos (mojantes, adherentes o estabilizantes) en dos momentos diferentes del proceso de producción/secado: i) antes del proceso de producción (en la bolsa de fermentación) en el momento de la inoculación de las bolsas de fermentación con conidias de PO212 o ii) antes del secado en el momento de la resuspensión de las conidias tras su centrifugación. De las 22 nuevas formulaciones desarrolladas y evaluadas en plantas de tomate en ensayos en invernadero, seis de ellas (FOR22, FOR25, FOR32, FOR35, FOR36 y FOR37) mejoran significativamente (P=0,05) el control de la marchitez vascular del tomate con respecto al obtenido con las conidias secas de P.oxalicum sin aditivos (CSPO) o con el fungicida Bavistin. Los formulados que mejoran la eficacia de las conidias secas sin aditivos son aquellos que contienen como humectantes alginato sódico en fermentación, seguido de aquellos que contienen glicerol como estabilizante en fermentación, y metil celulosa y leche desnatada como adherentes antes del secado. Además, el control de la marchitez vascular del tomate por parte de los formulados de P. oxalicum está relacionado con la fecha de inicio de la enfermedad. Otra forma de continuar mejorando la eficacia de biocontrol es mejorar la materia activa mediante la SELECCIÓN DE NUEVAS CEPAS de P. oxalicum, las cuales podrían tener diferentes niveles de eficacia. De entre las 28 nuevas cepas de P. oxalicum ensayadas en cámara de cultivo, sólo el aislado PO15 muestra el mismo nivel de eficacia que PO212 (62-67% de control) frente a la marchitez vascular del tomate en casos de alta presión de enfermedad. Mientras que, en casos de baja presión de enfermedad todas las cepas de P. oxalicum y sus mezclas demuestran ser eficaces. Finalmente, se estudia ampliar el rango de actuación de este ACB a OTROS HUÉSPEDES Y OTROS PATÓGENOS Y DIFERENTES GRADOS DE VIRULENCIA. En ensayos de eficacia de P. oxalicum frente a aislados de diferente agresividad de Verticillium spp. y Fusarium oxysporum f. sp. lycopersici en plantas de tomate en cámaras de cultivo, se demuestra que la eficacia de PO212 está negativamente correlacionada con el nivel de enfermedad causada por F. oxysporum f. sp. lycopersici pero que no hay ningún efecto diferencial en la reducción de la incidencia ni de la gravedad según la virulencia de los aislados. Sin embargo, en los ensayos realizados con V. dahliae, PO212 causa una mayor reducción de la enfermedad en las plantas inoculadas con aislados de virulencia media. La eficacia de PO212 también era mayor frente a aislados de virulencia media alta de F. oxysporum f. sp. melonis y F. oxysporum f. sp. niveum, en plantas de melón y sandía, respectivamente. En ambos huéspedes se demuestra que la dosis óptima de aplicación del ACB es de 107 conidias de PO212 g-1 de suelo de semillero, aplicada 7 días antes del trasplante. Además, entre 2 y 4 nuevas aplicaciones de PO212 a la raíces de las plantas mediante un riego al terreno de asiento mejoran la eficacia de biocontrol. La eficacia de PO212 no se limita a hongos patógenos vasculares como los citados anteriormente, sino también a otros patógenos como: Phytophthora cactorum, Globodera pallida y G. rostochiensis. PO212 reduce significativamente los síntomas (50%) causados por P. cactorum en plantas de vivero de fresa, tras la aplicación del ACB por inmersión de las raíces antes de su trasplante al suelo de viveros comerciales. Por otra parte, la exposición de los quistes de Globodera pallida y G. rostochiensis (nematodos del quiste de la patata) a las conidias de P. oxalicum, en ensayos in vitro o en microcosmos de suelo, reduce significativamente la capacidad de eclosión de los huevos. Para G. pallida esta reducción es mayor cuando se emplean exudados de raíz de patata del cv. 'Monalisa', que exudados de raíz del cv. 'Desirée'. No hay una reducción significativa en la tasa de eclosión con exudados de raíz de tomate del cv. 'San Pedro'. Para G. rostochiensis la reducción en la tasa de eclosión de los huevos se obtiene con exudados de la raíz de patata del cv. 'Desirée'. El tratamiento con P. oxalicum reduce también significativamente el número de quistes de G. pallida en macetas. Con el fin de optimizar la aplicación práctica de P. oxalicum cepa 212 como tratamiento biológico del suelo, es esencial entender cómo el entorno físico influye en la capacidad de colonización, crecimiento y supervivencia del mismo, así como el posible riesgo que puede suponer su aplicación sobre el resto de los microorganismos del ecosistema. Por ello en este segundo objetivo de esta tesis se estudia la interacción del ACB con el medio ambiente en el cual se aplica. Dentro de este objetivo se evalúa la INFLUENCIA DE LA TEMPERATURA, DISPONIBILIDAD DE AGUA Y PROPIEDADES FÍSICO-QUÍMICAS DE LOS SUELOS (POROSIDAD, TEXTURA, DENSIDAD...) SOBRE LA SUPERVIVENCIA Y EL CRECIMIENTO DE PO212 en condiciones controladas elaborando modelos que permitan predecir el impacto de cada factor ambiental en la supervivencia y crecimiento de P. oxalicum y conocer su capacidad para crecer y sobrevivir en diferentes ambientes. En las muestras de suelo se cuantifica: i) la supervivencia de Penicillium spp. usando el recuento del número de unidades formadoras de colonias en un medio de cultivo semi-selectivo y ii) el crecimiento (biomasa) de PO212 mediante PCR en tiempo real. En los resultados obtenidos se demuestra que P. oxalicum crece y sobrevive mejor en condiciones de sequía independientemente de la temperatura y del tipo de suelo. Si comparamos tipos de suelo P. oxalicum crece y sobrevive en mayor medida en suelos areno-arcillosos con un bajo contenido en materia orgánica, un mayor pH y una menor disponibilidad de fósforo y nitrógeno. La supervivencia y el crecimiento de P. oxalicum se correlaciona de forma negativa con la disponibilidad de agua y de forma positiva con el contenido de materia orgánica. Sólo la supervivencia se correlaciona también positivamente con el pH. Por otro lado se realizan ensayos en suelos de huertos comerciales con diferentes propiedades físico-químicas y diferentes condiciones ambientales para ESTUDIAR EL ESTABLECIMIENTO, SUPERVIVENCIA Y DISPERSIÓN VERTICAL Y MOVILIDAD HORIZONTAL DE PO212. P. oxalicum 212 puede persistir y sobrevivir en esos suelos al menos un año después de su liberación pero a niveles similares a los de otras especies de Penicillium indígenas presentes en los mismos suelos naturales. Además, P. oxalicum 212 muestra una dispersión vertical y movilidad horizontal muy limitada en los diferentes tipos de suelo evaluados. La introducción de P. oxalicum en un ambiente natural no sólo implica su actuación sobre el microorganismo diana, el patógeno, si no también sobre otros microorganismos indígenas. Para EVALUAR EL EFECTO DE LA APLICACIÓN DE P. oxalicum SOBRE LAS POBLACIONES FÚNGICAS INDIGENAS PRESENTES EN EL SUELO de dos huertos comerciales, se analizan mediante electroforesis en gradiente desnaturalizante de poliacrilamida (DGGE) muestras de dichos suelos a dos profundidades (5 y 10 cm) y a cuatro fechas desde la aplicación de P. oxalicum 212 (0, 75, 180 y 365 días). El análisis de la DGGE muestra que las diferencias entre las poblaciones fúngicas se deben significativamente a la fecha de muestreo y son independientes del tratamiento aplicado y de la profundidad a la que se tomen las muestras. Luego, la aplicación del ACB no afecta a la población fúngica de los dos suelos analizados. El análisis de las secuencias de la DGGE confirma los resultados anteriores y permiten identificar la presencia del ACB en los suelos. La presencia de P. oxalicum en el suelo se encuentra especialmente relacionada con factores ambientales como la humedad. Por tanto, podemos concluir que Penicillium oxalicum cepa 212 puede considerarse un óptimo Agente de Control Biológico (ACB), puesto que es ecológicamente competitivo, eficaz para combatir un amplio espectro de enfermedades y no supone un riesgo para el resto de microorganismos fúngicos no diana presentes en el lugar de aplicación. ABSTRACT Currently, reduction of active (EU) and the implementation of the new EU Directive 2009/128 which establishing the framework for action to achieve the sustainable use of chemical pesticides and preference of use of biological, physical and other non-chemical methods, forces to look for control methods less harmful to the environment. Biological control (CB) of plant diseases using biological control agents (BCA) is perceived as a safer alternative and with less environmental impact, either alone or as part of an integrated control strategy. The isolate 212 of Penicillium oxalicum (PO212) (ATCC 201888) was originally isolated from the soil mycoflora in Spain. P. oxalicum is a promising biological control agent for Fusarium wilt and other tomato diseases. Once identified and characterized the BCA, was developed a mass production method of conidia by solid-state fermentation. After determined the process of obtaining a formulated product of the BCA by drying of product by fluid-bed drying, it enables the preservation of the inoculum over a long period of time. Finally, some formulations of dried P. oxalicum conidia have been developed which contain one different additive that have improved their viability, stability and facilitated its handling and application. However, further work is needed to improve biocontrol efficacy. The first objective of this thesis has focused on the study of the interaction BCA- pathogen-host, to allow P.oxalicum to work in different pathosystems. The first point to be addressed in this objective is the development of new FORMULATIONS of BCA which increase their effectiveness against vascular wilt of tomato. PO212 conidial formulations were obtained by the joint addition of various additives (wetting agents, adhesives or stabilizers) at two different points of the production-drying process: i) to substrate in the fermentation bags before the production process, and (ii) to conidial paste obtained after production but before drying. Of the 22 new formulations developed and evaluated in tomato plants in greenhouse tests, six of them (FOR22 , FOR25 , FOR32 , FOR35 , FOR36 and FOR3) improved significantly (P = 0.05) the biocontrol efficacy against tomato wilt with respect to that obtained with dried P.oxalicum conidia without additives (CSPO) or the fungicide Bavistin. The formulations that improve the efficiency of dried conidia without additives are those containing as humectants sodium alginate in the fermentation bags, followed by those containing glycerol as a stabilizer in the fermentation bags, and methylcellulose and skimmed milk as adherents before drying. Moreover, control of vascular wilt of tomatoes by PO212 conidial formulations is related to the date of disease onset. Another way to further improve the effectiveness of biocontrol is to improve the active substance by SELECTION OF NEW STRAINS of P. oxalicum, which may have different levels of effectiveness. Of the 28 new strains of P. oxalicum tested in a culture chamber, only PO15 isolate shows the same effectiveness that PO212 (62-67 % of control) against tomato vascular wilt in cases of high disease pressure. Whereas in cases of low disease pressure all strains of P. oxalicum and its mixtures effective. Finally, we study extend the range of action of this BCA TO OTHER GUESTS AND OTHER PATHOGENS AND DIFFERENT DEGREES OF VIRULENCE. In efficacy trials of P. oxalicum against isolates of different aggressiveness of Verticillium spp. and Fusarium oxysporum f. sp. lycopersici in tomato plants in growth chambers, shows that the efficiency of PO212 is negatively correlated with the level of disease caused by F. oxysporum f. sp. lycopersici. There is not differential effect in reducing the incidence or severity depending on the virulence of isolates. However, PO212 cause a greater reduction of disease in plants inoculated with virulent isolates media of V. dahlia. PO212 efficacy was also higher against isolates of high and average virulence of F. oxysporum f. sp. melonis and F. oxysporum f. sp. niveum in melon and watermelon plants, respectively. In both hosts the optimum dose of the BCA application is 107 conidia PO212 g-1 soil, applied on seedlings 7 days before transplantation into the field. Moreover, the reapplication of PO212 (2-4 times) to the roots by irrigation into the field improve efficiency of biocontrol. The efficacy of PO212 is not limited to vascular pathogens as those mentioned above, but also other pathogens such as Oomycetes (Phytophthora cactorum) and nematodes (Globodera pallida and G. rostochiensis). PO212 significantly reduces symptoms (50 %) caused by P. cactorum in strawberry nursery plants after application of BCA by dipping the roots before transplanting to soil in commercial nurseries. Moreover, the exposure of G. pallida and G. rostochiensis cysts to the conidia of P. oxalicum, in in vitro assays or in soil microcosms significantly reduces hatchability of eggs. The reduction in the rate of G. pallida juveniles hatching was greatest when root diffusates from the `Monalisa´ potato cultivar were used, followed by root diffusates from the `Désirée´ potato cultivar. However, no significant reduction in the rate of G. pallida juveniles hatching was found when root diffusates from the ‘San Pedro” tomato cultivar were used. For G. rostochiensis reduction in the juveniles hatching is obtained from the root diffusates 'Desirée' potato cultivar. Treatment with P. oxalicum also significantly reduces the number of cysts of G. pallida in pots. In order to optimize the practical application of P. oxalicum strain 212 as a biological soil treatment, it is essential to understand how the physical environment influences the BCA colonization, survival and growth, and the possible risk that can cause its application on other microorganisms in the ecosystem of performance. Therefore, the second objective of this thesis is the interaction of the BCA with the environment in which it is applied. Within this objective is evaluated the INFLUENCE OF TEMPERATURE, WATER AVAILABILITY AND PHYSICAL-CHEMICAL PROPERTIES OF SOILS (POROSITY, TEXTURE, DENSITY...) ON SURVIVAL AND GROWTH OF PO212 under controlled conditions to develop models for predicting the environmental impact of each factor on survival and growth of P. oxalicum and to know their ability to grow and survive in different environments. Two parameters are evaluated in the soil samples: i) the survival of Penicillium spp. by counting the number of colony forming units in semi-selective medium and ii) growth (biomass) of PO212 by real-time PCR. P. oxalicum grows and survives better in drought conditions regardless of temperature and soil type. P. oxalicum grows and survives more in sandy loam soils with low organic matter content, higher pH and lower availability of phosphorus and nitrogen. Survival and growth of P. oxalicum negatively correlates with the availability of water and positively with the organic content. Only survival also correlated positively with pH. Moreover, trials are carried out into commercial orchards soils with different physic-chemical properties and different environmental conditions TO STUDY THE ESTABLISHMENT, SURVIVAL, VERTICAL DISPERSION AND HORIZONTAL SPREAD OF PO212. P. oxalicum 212 can persist and survive at very low levels in soil one year after its release. The size of the PO212 population after its release into the tested natural soils is similar to that of indigenous Penicillium spp. Furthermore, the vertical dispersion and horizontal spread of PO212 is limited in different soil types. The introduction of P. oxalicum in a natural environment not only involves their action on the target organism, the pathogen, but also on other indigenous microorganisms. TO ASSESS THE EFFECT OF P. oxalicum APPLICATION ON SOIL INDIGENOUS FUNGAL COMMUNITIES in two commercial orchards, soil samples are analyzed by Denaturing Gradient Gel Electrophoresis polyacrylamide (DGGE). Samples are taken from soil at two depths (5 and 10 cm) and four dates from the application of P. oxalicum 212 (0, 75, 180 and 365 days). DGGE analysis shows that differences are observed between sampling dates and are independent of the treatment of P. oxalicum applied and the depth. BCA application does not affect the fungal population of the two soil analyzed. Sequence analysis of the DGGE bands confirms previous findings and to identify the presence of BCA on soils. The presence of P. oxalicum in soil is especially related to environmental factors such as humidity. Therefore, we conclude that the 212 of strain Penicillium oxalicum can be considered an optimum BCA, since it is environmentally competitive and effective against a broad spectrum of diseases and does not have any negative effect on soil non-target fungi communities.
Resumo:
El refuerzo de estructuras existentes mediante el encolado exterior de láminas de polímeros reforzados con fibras (FRP) se ha convertido en la aplicación más común de los materiales compuestos avanzados en construcción. Estos materiales presentan muchas ventajas frente a los materiales convencionales (sin corrosión, ligeros, de fácil aplicación, etc.). Pero a pesar de las numerosas investigaciones realizadas, aún persisten ciertas dudas sobre algunos aspectos de su comportamiento y las aplicaciones prácticas se llevan a cabo sólo con la ayuda de guías, sin que haya una normativa oficial. El objetivo de este trabajo es incrementar el conocimiento sobre esta técnica de refuerzo, y más concretamente, sobre el refuerzo a flexión de estructuras de fábrica. Con frecuencia el elemento reforzado es de hormigón armado y las láminas de FRP encoladas al exterior sirven para mejorar su resistencia a flexión, cortante o compresión (encamisados). Sin embargo su empleo en otros materiales como las estructuras de fábrica resulta muy prometedor. Las fábricas se caracterizan por soportar muy bien los esfuerzos de compresión pero bastante mal los de tracción. Adherir láminas de materiales compuestos puede servir para mejorar la capacidad resistente de elementos de fábrica sometidos a esfuerzos de flexión. Pero para ello, debe quedar garantizada una correcta adherencia entre el FRP y la fábrica, especialmente en edificios antiguos cuya superficie puede estar deteriorada por encontrarse a la intemperie o por el propio paso del tiempo. En el capítulo II se describen los objetivos fundamentales del trabajo y el método seguido. En el capítulo III se hace una amplia revisión del estado de conocimiento sobre el tema. En el apartado III.1 se detallan las principales características y propiedades mecánicas de fibras, matrices y materiales compuestos así como sus principales aplicaciones, haciendo especial hincapié en aspectos relativos a su durabilidad. En el apartado III.2 se incluye una revisión histórica de las líneas de investigación, tanto teóricas como empíricas, publicadas sobre estructuras de hormigón reforzadas a flexión encolando materiales compuestos. El apartado III.3 se centra en el aspecto fundamental de la adherencia refuerzo-soporte. Se hace un repaso a distintos modelos propuestos para prevenir el despegue distinguiendo si éste se inicia en la zona de anclaje o si está inducido por fisuras en la zona interior del elemento. Se observa falta de consenso en las propuestas. Además en este punto se relatan las campañas experimentales publicadas acerca de la adherencia entre materiales compuestos y fábricas. En el apartado III.4 se analizan las particularidades de las estructuras de fábrica. Además, se revisan algunas de las investigaciones relativas a la mejora de su comportamiento a flexión mediante láminas de FRP. El comportamiento mecánico de muros reforzados solicitados a flexión pura (sin compresión) ha sido documentado por varios autores, si bien es una situación poco frecuente en fábricas reales. Ni el comportamiento mecánico de muros reforzados solicitados a flexocompresión ni la incidencia que el nivel de compresión soportado por la fábrica tiene sobre la capacidad resistente del elemento reforzado han sido suficientemente tratados. En cuanto a los trabajos teóricos, las diferentes propuestas se basan en los métodos utilizados para hormigón armado y comparten los principios habituales de cálculo. Sin embargo, presentan diferencias relativas, sobre todo, a tres aspectos: 1) la forma de modelar el comportamiento de la fábrica, 2) el valor de deformación de cálculo del refuerzo, y 3) el modo de fallo que se considera recomendable buscar con el diseño. A pesar de ello, el ajuste con la parte experimental de cada trabajo suele ser bueno debido a una enorme disparidad en las variables consideradas. Cada campaña presenta un modo de fallo característico y la formulación que se propone resulta apropiada para él. Parece necesario desarrollar un método de cálculo para fábricas flexocomprimidas reforzadas con FRP que pueda ser utilizado para todos los posibles fallos, tanto atribuibles a la lámina como a la fábrica. En el apartado III.4 se repasan algunas lesiones habituales en fábricas solicitadas a flexión y se recogen ejemplos de refuerzos con FRP para reparar o prevenir estos daños. Para mejorar el conocimiento sobre el tema, se llevan a cabo dos pequeñas campañas experimentales realizadas en el Instituto de Ciencias de la Construcción Eduardo Torroja. La primera acerca de la adherencia de materiales compuestos encolados a fábricas deterioradas (apartado IV.1) y la segunda sobre el comportamiento estructural a flexocompresión de probetas de fábrica reforzadas con estos materiales (apartado IV.2). En el capítulo V se analizan algunos de los modelos de adherencia propuestos para prevenir el despegue del extremo del refuerzo. Se confirma que las predicciones obtenidas con ellos resultan muy dispares. Se recopila una base de datos con los resultados experimentales de campañas sobre adherencia de FRP a fábricas extraídas de la literatura y de los resultados propios de la campaña descrita en el punto IV.1. Esta base de datos permite conocer cual de los métodos analizados resulta más adecuado para dimensionar el anclaje de láminas de FRP adheridas a fábricas. En el capítulo VI se propone un método para la comprobación en agotamiento de secciones de fábrica reforzadas con materiales compuestos sometidas a esfuerzos combinados de flexión y compresión. Está basado en el procedimiento de cálculo de la capacidad resistente de secciones de hormigón armado pero adaptado a las fábricas reforzadas. Para ello, se utiliza un diagrama de cálculo tensión deformación de la fábrica de tipo bilineal (acorde con el CTE DB SE-F) cuya simplicidad facilita el desarrollo de toda la formulación al tiempo que resulta adecuado para predecir la capacidad resistente a flexión tanto para fallos debidos al refuerzo como a la fábrica. Además se limita la deformación de cálculo del refuerzo teniendo en consideración ciertos aspectos que provocan que la lámina adherida no pueda desarrollar toda su resistencia, como el desprendimiento inducido por fisuras en el interior del elemento o el deterioro medioambiental. En concreto, se propone un “coeficiente reductor por adherencia” que se determina a partir de una base de datos con 68 resultados experimentales procedentes de publicaciones de varios autores y de los ensayos propios de la campaña descrita en el punto IV.2. También se revisa la formulación propuesta con ayuda de la base de datos. En el capítulo VII se estudia la incidencia de las principales variables, como el axil, la deformación de cálculo del refuerzo o su rigidez, en la capacidad final del elemento. Las conclusiones del trabajo realizado y las posibles líneas futuras de investigación se exponen en el capítulo VIII. ABSTRACT Strengthening of existing structures with externally bonded fiber reinforced polymers (FRP) has become the most common application of advanced composite materials in construction. These materials exhibit many advantages in comparison with traditional ones (corrosion resistance, light weight, easy to apply, etc.). But despite countless researches have been done, there are still doubts about some aspects of their behaviour and applications are carried out only with the help of guidelines, without official regulations. The aim of this work is to improve the knowledge on this retrofitting technique, particularly in regard to flexural strengthening of masonry structures. Reinforced concrete is often the strengthened material and external glued FRP plates are used to improve its flexural, shear or compressive (by wrapping) capacity. However the use of this technique on other materials like masonry structures looks promising. Unreinforced masonry is characterized for being a good material to support compressive stresses but really bad to withstand tensile ones. Glue composite plates can improve the flexural capacity of masonry elements subject to bending. But a proper bond between FRP sheet and masonry must be ensured to do that, especially in old buildings whose surface can be damaged due to being outside or ageing. The main objectives of the work and the methodology carried out are described In Chapter II. An extensive overview of the state of art is done in Chapter III. In Section III.1 physical and mechanical properties of fibers, matrix and composites and their main applications are related. Durability aspects are especially emphasized. Section III.2 includes an historical overview of theoretical and empirical researches on concrete structures strengthened gluing FRP plates to improve their flexural behaviour. Section III.3 focuses on the critical point of bonding between FRP and substrate. Some theoretical models to prevent debonding of FRP laminate are reviewed, it has made a distinction between models for detachment at the end of the plate or debonding in the intermediate zones due to the effects of cracks. It is observed a lack of agreement in the proposals. Some experimental studies on bonding between masonry and FRP are also related in this chapter. The particular characteristics of masonry structures are analyzed in Section III.4. Besides some empirical and theoretical investigations relative to improve their flexural capacity with FRP sheets are reviewed. The mechanical behaviour of strengthened walls subject to pure bending (without compression) has been established by several authors, but this is an unusual situation for real masonry. Neither mechanical behaviour of walls subject to bending and compression nor influence of axial load in the final capacity of the strengthened element are adequately studied. In regard to theoretical studies, the different proposals are based on reinforced concrete analytical methods and share common design principles. However, they present differences, especially, about three aspects: 1) the constitutive law of masonry, 2) the value of ultimate FRP strain and 3) the desirable failure mode that must be looked for. In spite of them, a good agreement between each experimental program and its theoretical study is often exhibited due to enormous disparity in considered test parameters. Each experimental program usually presents a characteristic failure mode and the proposed formulation results appropriate for this one. It seems necessary to develop a method for FRP strengthened walls subject to bending and compression enable for all failure modes (due to FRP or masonry). Some common damages in masonry subject to bending are explained in Section III.4. Examples of FRP strengthening to repair or prevent these damages are also written. Two small experimental programs are carried out in Eduardo Torroja Institute to improve the knowledge on this topic. The first one is concerned about the bond between FRP plates and damaged masonry (section IV.1) and the second one is related to the mechanical behaviour of the strengthened masonry specimens subject to out of plane bending combined with axial force (section IV.2). In the Chapter V some bond models to prevent the debonding at the FRP plate end are checked. It is confirmed that their predictions are so different. A pure-shear test database is compiled with results from the existing literature and others from the experimental program described in section IV.1. This database lets know which of the considered model is more suitable to design anchorage lengths of glued FRP to masonry. In the Chapter VI a method to check unreinforced masonry sections with external FRP strengthening subject to bending and compression to the ultimate limit state is proposed. This method is based on concrete reinforced one, but it is adapted to strengthened masonry. A bilinear constitutive law is used for masonry (according to CTE DB SE-F). Its simplicity helps to develop the model formulation and it has proven to be suitable to predict bending capacity either for FRP failures or masonry crushing. With regard to FRP, the design strain is limited. It is taken into account different aspects which cause the plate can’t reach its ultimate strength, like intermediate FRP debonding induced by opening cracking or environmental damage. A “bond factor” is proposed. It is obtained by means of an experimental bending test database that includes 68 results from the existing literature and from the experimental program described in section IV.2. The proposed formulation has also been checked with the help of bending database. The effects of the main parameters, like axial load, FRP design effective strain or FRP stiffness, on the bending capacity of the strengthened element are studied in Chapter VII. Finally, the main conclusions from the work carried out are summarized in Chapter VIII. Future lines of research to be explored are suggested as well.
Resumo:
Nitrate leaching (NL) is an important N loss process in irrigated agriculture that imposes a cost on the farmer and the environment. A meta-analysis of published experimental results from agricultural irrigated systems was conducted to identify those strategies that have proven effective at reducing NL and to quantify the scale of reduction that can be achieved. Forty-four scientific articles were identified which investigated four main strategies (water and fertilizer management, use of cover crops and fertilizer technology) creating a database with 279 observations on NL and 166 on crop yield. Management practices that adjust water application to crop needs reduced NL by a mean of 80% without a reduction in crop yield. Improved fertilizer management reduced NL by 40%, and the best relationship between yield and NL was obtained when applying the recommended fertilizer rate. Replacing a fallow with a non-legume cover crop reduced NL by 50% while using a legume did not have any effect on NL. Improved fertilizer technology also decreased NL but was the least effective of the selected strategies. The risk of nitrate leaching from irrigated systems is high, but optimum management practices may mitigate this risk and maintain crop yields while enhancing environmental sustainability.
Resumo:
Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.
Resumo:
The crop simulation model AquaCrop, recently developed by FAO can be used for a wide range of purposes. However, in its present form, its use over large areas or for applications that require a large number of simulations runs (e.g., long-term analysis), is not practical without developing software to facilitate such applications. Two tools for managing the inputs and outputs of AquaCrop, named AquaData and AquaGIS, have been developed for this purpose and are presented here. Both software utilities have been programmed in Delphi v. 5 and in addition, AquaGIS requires the Geographic Information System (GIS) programming tool MapObjects. These utilities allow the efficient management of input and output files, along with a GIS module to develop spatial analysis and effect spatial visualization of the results, facilitating knowledge dissemination. A sample of application of the utilities is given here, as an AquaCrop simulation analysis of impact of climate change on wheat yield in Southern Spain, which requires extensive input data preparation and output processing. The use of AquaCrop without the two utilities would have required approximately 1000 h of work, while the utilization of AquaData and AquaGIS reduced that time by more than 99%. Furthermore, the use of GIS, made it possible to perform a spatial analysis of the results, thus providing a new option to extend the use of the AquaCrop model to scales requiring spatial and temporal analyses.
Resumo:
La gestión de hábitat orientada a la conservación de polinizadores en los agro-ecosistemas requiere una selección de especies vegetales atendiendo fundamentalmente a dos criterios: i) el potencial atractivo de sus flores a los polinizadores; y ii) la simplicidad en su manejo agronómico. Además de estas premisas, es necesario considerar la capacidad invasora de estas especies vegetales, debido a que algunas de las más atractivas pueden resultar invasoras en determinados agro-ecosistemas. Por lo tanto, es preciso determinar qué especies vegetales son las más indicadas para ser implementadas en cada agro-ecosistema. En la presente tesis doctoral se plantea la búsqueda de las especies vegetales adecuadas para atraer polinizadores en los agro-ecosistemas del centro de España. En una primera aproximación, se ha evaluado la atracción y expansión espacial (potencial invasivo) de seis plantas perennes de la familia Lamiaceae (aromáticas), elegidas por ser nativas de la región mediterránea. La elección de las especies vegetales se ha llevado a cabo con el fin de crear márgenes funcionales basados en la mezcla de especies vegetales con distintos periodos de floración, de modo que prolonguen la disponibilidad de recursos florales en el tiempo. Tras un primer año dedicado al establecimiento de las especies aromáticas, en los dos años siguientes se ha estudiado la atracción individual y combinada de las especies vegetales sobre los polinizadores, y como ésta se ve afectada por la densidad y la morfología floral, utilizando para ello un diseño experimental en bloques al azar. Los resultados de este estudio han puesto de manifiesto que la morfología floral no tuvo influencia sobre la atracción de las especies vegetales, pero si la densidad floral, puesto que las especies vegetales con mayor densidad de flores (Nepeta tuberosa e Hyssopus officinalis) han mostrado mayor atracción a polinizadores. Cabe destacar que de las seis especies consideradas, dos especies de verano (Melissa officinalis y Thymbra capitata) no han contribuido de forma efectiva a la atracción de la mezcla hacia los polinizadores, mostrando una reducción significativa de este parámetro respecto a las otras especies aromáticas a lo largo del verano. Se ha observado que ninguna de las especies aromáticas evaluadas ha mostrado tendencia invasora a lo largo del estudio. En base a estos resultados, se puede concluir que entre las especies aromáticas estudiadas, N. tuberosa, H. officinalis y Salvia verbenaca son las que ofrecen mayor potencial para ser utilizadas en la conservación de polinizadores. De forma similar al caso de las plantas aromáticas, se ha llevado a cabo una segunda experimentación que incluía doce plantas anuales con floración de primavera, en la que se evaluó la atracción a polinizadores y su comportamiento agronómico. Este estudio con especies herbáceas se ha prolongado durante dos años, utilizando un diseño experimental de bloques aleatorios. Las variables analizadas fueron: el atractivo de las distintas especies vegetales a los polinizadores, su eficiencia de atracción (calculada como una combinación de la duración de la floración y las visitas de insectos), su respuesta a dos tipos de manejo agronómico (cultivo en mezcla frente a monocultivo; laboreo frente a no-laboreo) y su potencial invasivo. Los resultados de esta segunda experimentación han mostrado que las flores de Borago officinalis, Echium plantagineum, Phacelia tanacetifolia y Diplotaxis tenuifolia son atractivas a las abejas, mientras que las flores de Calendula arvensis, Coriandrum sativum, D. tenuifolia y Lobularia maritima son atractivas a los sírfidos. Con independencia del tipo de polinizadores atraídos por cada especie vegetal, se ha observado una mayor eficiencia de atracción en parcelas con monocultivo de D. tenuifolia respecto a las parcelas donde se cultivó una mezcla de especies herbáceas, si bien en estas últimas se observó mayor eficiencia de atracción que en la mayoría de parcelas mono-específicas. Respecto al potencial invasivo de las especies herbáceas, a pesar de que algunas de las más atractivas a polinizadores (P. tanacetifolia and C. arvensis) mostraron tendencia a un comportamiento invasor, su capacidad de auto-reproducción se vio reducida con el laboreo. En resumen, D. tenuifolia es la única especie que presentó una alta eficiencia de atracción a distintos tipos de polinizadores, conjuntamente con una alta capacidad de auto-reproducción pero sin mostrar carácter invasor. Comparando el atractivo de las especies vegetales utilizadas en este estudio sobre los polinizadores, D. tenuifolia es la especie más recomendable para su cultivo orientado a la atracción de polinizadores en agro-ecosistemas en el centro de España. Esta especie herbácea, conocida como rúcula, tiene la ventaja añadida de ser una especie comercializada para el consumo humano. Además de su atractivo a polinizadores, deben considerarse otros aspectos relacionados con la fisiología y el comportamiento de esta especie vegetal en los agro-ecosistemas antes de recomendar su cultivo. Dado que el cultivo en un campo agrícola de una nueva especie vegetal implica unos costes de producción, por ejemplo debidos a la utilización de agua de riego, es necesario evaluar el incremento en dichos costes en función de demanda hídrica específica de esa especie vegetal. Esta variable es especialmente importante en zonas dónde se presentan sequías recurrentes como es el caso del centro y sur-este de la península Ibérica. Este razonamiento ha motivado un estudio sobre los efectos del estrés hídrico por sequía y el estrés por déficit moderado y severo de riego sobre el crecimiento y floración de la especie D. tenuifolia, así como sobre la atracción a polinizadores. Los resultados muestran que tanto el crecimiento y floración de D. tenuifolia como su atracción a polinizadores no se ven afectados si la falta de riego se produce durante un máximo de 4 días. Sin embargo, si la falta de riego se extiende a lo largo de 8 días o más, se observa una reducción significativa en el crecimiento vegetativo, el número de flores abiertas, el área total y el diámetro de dichas flores, así como en el diámetro y longitud del tubo de la corola. Por otro lado, el estudio pone de manifiesto que un déficit hídrico regulado permite una gestión eficiente del agua, la cual, dependiendo del objetivo final del cultivo de D. tenuifolia (para consumo o solo para atracción de polinizadores), puede reducir su consumo entre un 40 y un 70% sin afectar al crecimiento vegetativo y desarrollo floral, y sin reducir significativamente el atractivo a los polinizadores. Finalmente, esta tesis aborda un estudio para determinar cómo afecta el manejo de hábitat a la producción de los cultivos. En concreto, se ha planteado una experimentación que incluye márgenes mono-específicos y márgenes con una mezcla de especies atractivas a polinizadores, con el fin de determinar su efecto sobre la producción del cultivo de cilantro (C. sativum). La elección del cultivo de cilantro se debe a que requiere la polinización de insectos para su reproducción (aunque, en menor medida, puede polinizarse también por el viento), además de la facilidad para estimar su producción en condiciones semi-controladas de campo. El diseño experimental consistía en la siembra de márgenes mono-específicos de D. tenuifolia y márgenes con mezcla de seis especies anuales situados junto al cultivo de cilantro. Estos cultivos con márgenes florales fueron comparados con controles sin margen floral. Además, un segundo grupo de plantas de cilantro situadas junto a todos los tratamientos, cuyas flores fueron cubiertas para evitar su polinización, sirvió como control para evaluar la influencia de los polinizadores en la producción del cultivo. Los resultados muestran que la presencia de cualquiera de los dos tipos de margen floral mejora el peso y el porcentaje de germinación de las semillas de cilantro frente al control sin margen. Si se comparan los dos tipos de margen, se ha observado un mayor número de semillas de cilantro junto al margen con mezcla de especies florales respecto al margen mono-específico, probablemente debido al mayor número visitas de polinizadores. Puesto que el experimento se realizó en condiciones de campo semi-controladas, esto sugiere que las visitas de polinizadores fueron el factor determinante en los resultados. Por otro lado, los resultados apuntan a que la presencia de un margen floral (ya sea mono-especifico o de mezcla) en cultivos de pequeña escala puede aumentar la producción de cilantro en más de un 200%, al tiempo que contribuyen a la conservación de los polinizadores. ABSTRACT Habitat management, aimed to conserve pollinators in agro-ecosystems, requires selection of the most suitable plant species in terms of their attractiveness to pollinators and simplicity of agronomic management. However, since all flowers are not equally attractive to pollinators and many plant species can be weedy or invasive in the particular habitat, it is important to test which plant species are the most appropriate to be implemented in specific agro-ecosystems. For that reason, this PhD dissertation has been focused on determination of the most appropriate aromatic and herbaceous plants for conservation of pollinators in agro-ecosystems of Central Spain. Therefore, in a first approximation, spatial expansion (i.e. potential weediness) and attractiveness to pollinators of six aromatic perennial plants from the Lamiaceae family, native and frequent in the Mediterranean region, were evaluated. Preliminary plant selection was based on designing a functional mixed margins consisting of plants attractive to pollinators and with different blooming periods, in order to extend the availability of floral resources in the field. After a year of vegetative growth, the next two years the plant species were studied in a randomized block design experiment in order to estimate their attractiveness to pollinators in Central Spain and to investigate whether floral morphology and density affect attractiveness to pollinators. The final aim of the study was to evaluate how their phenology and attractiveness to pollinators can affect the functionality of a flowering mixture of these plants. In addition, the spatial expansion, i.e. potential weediness, of the selected plant species was estimated under field conditions, as the final purpose of the studied plants is to be implemented within agro-ecosystems. The results of the experiment showed that floral morphology did not affect the attractiveness of plants to pollinators, but floral density did, as plant species with higher floral density (i.e. Nepeta tuberosa and Hyssopus officinalis) showed significantly higher attractiveness to pollinators. In addition, of six plant species, two summer species (Melissa officinalis and Thymbra capitata) did not efficiently contribute to the attractiveness of the mixture to pollinators, which reduced its attractiveness during the summer period. Finally, as none of the plants showed weedy behaviour under field conditions, the attractive plant species, i.e. N. tuberosa, H. officinalis and the early spring flowering Salvia verbenaca, showed good potential to conserve the pollinators. Similarly, in a second approximation, the attractiveness to pollinators and agronomic behaviour of twelve herbaceous plants blooming in spring were studied. This experiment was conducted over two years in a randomized block design in order to evaluate attractiveness of preselected plant species to pollinators, as well as their attractiveness efficiency (a combination of duration of flowering and insect visitation), their response to two different agronomic management practices (growing in mixed vs. mono-specific plots; tillage vs. no-tillage), and their potential weediness. The results of this experiment showed that the flowers of Borago officinalis, Echium plantagineum, Phacelia tanacetifolia and Diplotaxis tenuifolia were attractive to bees, while Calendula arvensis, Coriandrum sativum, D. tenuifolia and Lobularia maritima were attractive to hoverflies. In addition, floral mixture resulted in lower attractiveness efficiency to pollinators than mono-specific D. tenuifolia, but higher than most of the mono-specific stands. On the other hand, although some of the most attractive plant species (e.g. P. tanacetifolia and C. arvensis) showed potential weediness, their self-seeding was reduced by tillage. After comparing attractiveness efficiency of various herbaceous species to pollinators and their potential weediness, the results indicated that D. tenuifolia showed the highest attractiveness efficiency to pollinators and efficient self-reproduction, making it highly recommended to attract bees and hoverflies in agro-ecosystems of Central Spain. In addition, this plant, commonly known as wild rocket, has a supplementary economic value as a commercialized crop. The implementation of a new floral margin in agro-ecosystems means increased production costs, especially in regions with frequent and long droughts (as it is Central and South-East area of Iberian Peninsula), where the principal agricultural cost is irrigation. Therefore, before recommending D. tenuifolia for sustainable habitat management within agro-ecosystems, it is necessary to study the effect of drought stress and moderate and severe deficit irrigation on its growth, flower development and attractiveness to pollinators. The results of this experiment showed that in greenhouse conditions, potted D. tenuifolia could be without irrigation for 4 days without affecting its growth, flowering and attractiveness to pollinators. However, lack of irrigation for 8 days or longer significantly reduced the vegetative growth, number of open flowers, total floral area, flower diameter, corolla tube diameter and corolla tube length of D. tenuifolia. This study showed that regulated deficit irrigation can improve water use efficiency, and depending on the purpose of growing D. tenuifolia, as a crop or as a beneficial plant to attract pollinators, it can reduce water consumption by 40% to 70% without affecting its vegetative and floral development and without reducing its attractiveness to pollinators. Finally, the following experiment was developed in order to understand how habitat management can influence on the agricultural production. For this purpose, it was evaluated if the vicinity of mixed and mono-specific field margins, preselected to conserve pollinators within agro-ecosystems, can improve seed production in coriander (C. sativum). The selection of this plant species for the experiment was based on its necessity for insect pollination for production of seeds (even though some pollen can be transmitted from one flower to another by wind) and the fact that under semi-controlled field conditions established in the field it is possible to estimate its total seed production. Since D. tenuifolia is attractive for both bees and hoverflies in Central Spain, the main objective of this experiment was to estimate the impact of two different types of field margins, i.e. mono-specific margin with D. tenuifolia and mixed margin with six herbaceous species, on the seed production of potted coriander. For that reason, it was tested: i) if open pollination (control without proximate field margin and treatments with nearby mono-specific and mixed margin) increases the seed production of coriander when compared with no-pollination (covered inflorescences of coriander) under field conditions; ii) if frequency of pollinator visitation to the flowers of coriander was higher in the presence of field margins than in the control without field margin; and iii) if seed production was higher in the presence of field margins than in control plants of coriander without field margin. The results showed that the proximity of both types of floral margins (mixed and mono-specific) improved the seed quality of coriander plants, as seed weight and germination rate were higher than in control plants without field margin. Furthermore, the number of seeds produced was significantly higher in coriander plants grown near mixed margins than near mono-specific margin, probably due to an increase in pollinator visits. Since the experiment was conducted under semi-controlled field conditions, it can be concluded that pollinator visits was the main factor that biased the results, and that presence of both mixed or mono-specific (D. tenuifolia) margins can improve the production of coriander for more than 200% in small-scale gardens and, in addition, conserve the local pollinators.
Resumo:
En personas que padecen una Lesión Medular cervical, la función de los miembros superiores se ve afectada en mayor o menor medida, dependiendo fundamentalmente del nivel de la lesión y de la severidad de la misma. El déficit en la función del miembro superior hace que la autonomía e independencia de las personas se vea reducida en la ejecución de Actividades de la Vida Diaria. En el entorno clínico, la valoración de la función del miembro superior se realiza principalmente con escalas clínicas. Algunas de ellas valoran el nivel de dependencia o independencia en la ejecución de Actividades de la Vida Diaria, como, por ejemplo, el índice de Barthel y la escala FIM (Medida de la Independencia Funcional). Otras escalas, como Jebsen-Taylor Hand Function, miden la función del miembro superior valorando la destreza y la habilidad en la ejecución de determinadas tareas funcionales. Estas escalas son generales, es decir, se pueden aplicar a distintas poblaciones de sujetos y a la presencia de distintas patologías. Sin embargo, existen otras escalas desarrolladas específicamente para valorar una patología concreta, con el objetivo de hacer las evaluaciones funcionales más sensibles a cambios. Un ejemplo es la escala Spinal Cord Independence Measure (SCIM), desarrollada para valorar Lesión Medular. Las escalas clínicas son instrumentos de medida estandarizados, válidos para su uso en el entorno clínico porque se han validado en muestras grandes de pacientes. No obstante, suelen poseer una elevada componente de subjetividad que depende principalmente de la persona que puntúa el test. Otro aspecto a tener en cuenta, es que la sensibilidad de las escalas es alta, fundamentalmente, a cambios groseros en el estado de salud o en la función del miembro superior, de forma que cambios sutiles en el sujeto pueden no ser detectados. Además, en ocasiones, poseen saturaciones en el sistema de puntuación, de forma que mejorías que se puedan producir por encima de un determinado umbral no son detectadas. En definitiva, estas limitaciones hacen que las escalas clínicas no sean suficientes, por sí mismas, para evaluar estrategias motoras del miembro superior durante la ejecución de movimientos funcionales, siendo necesaria la búsqueda de instrumentos de medida que aporten objetividad, complementen las valoraciones y, al mismo tiempo, intenten solventar las limitaciones que poseen las escalas. Los estudios biomecánicos son ejemplos de métodos objetivos, en los que diversas tecnologías se pueden utilizar para recoger información de los sujetos. Una concreción de estos estudios son los estudios cinemáticos. Mediante tecnología optoelectrónica, inercial o electromagnética, estos estudios proporcionan información objetiva acerca del movimiento realizado por los sujetos, durante la ejecución de tareas concretas. Estos sistemas de medida proporcionan grandes cantidades de datos que carecen de una interpretación inmediata. Estos datos necesariamente deben ser tratados y reducidos a un conjunto de variables que, a priori, posean una interpretación más sencilla para ser utilizados en la práctica clínica. Estas han sido las principales motivaciones de esta investigación. El objetivo principal fue proponer un conjunto de índices cinemáticos que, de forma objetiva, valoren la función del miembro superior; y validar los índices propuestos en poblaciones con Lesión Medular, para su uso como instrumentos de valoración en el entorno clínico. Esta tesis se enmarca dentro de un proyecto de investigación: HYPER (Hybrid Neuroprosthetic and Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, referencia CSD2009-00067 CONSOLIDER INGENIO 2010). Dentro de este proyecto se lleva a cabo investigación en el desarrollo de modelos, para determinar los requisitos biomecánicos y los patrones de movimiento de los miembros superiores en sujetos sanos y personas con lesión medular. Además, se realiza investigación en la propuesta de nuevos instrumentos de evaluación funcional en el campo de la rehabilitación de los miembros superiores. ABSTRACT In people who have suffered a cervical Spinal Cord Injury, upper limbs function is affected to a greater or lesser extent, depending primarily on the level of the injury and the severity of it. The deficit in the upper limb function reduces the autonomy and independence of persons in the execution of Activities of Daily Living. In the clinical setting, assessment of upper limb function is mainly performed based on clinical scales. Some value the level of dependence or independence in performing activities of daily living, such as the Barthel Index and the FIM scale (Functional Independence Measure). Other scales, such as the Jebsen-Taylor Hand Function, measure upper limb function in terms of the skill and ability to perform specific functional tasks. These scales are general, so can be applied to different populations of subjects and the presence of different pathologies. However, there are other scales developed for a specific injury, in order to make the functional assessments more sensitive to changes. An example is the Spinal Cord Independence Measure (SCIM), developed for people with Spinal Cord Injury. The clinical scales are standardized instruments measure, valid for use in the clinical setting because they have been validated in large patient samples. However, they usually have a high level of subjectivity which mainly depends on the person who scores the test. Another aspect to take into account is the high sensitivity of the scales mainly to gross changes in the health status or upper limb function, so that subtle changes in the subject may not be detected. Moreover, sometimes, have saturations in the scoring system, so that improvements which may occur above a certain threshold are not detected. For these reasons, clinical scales are not enough, by themselves, to assess motor strategies used during movements. So, it’s necessary to find measure instruments that provide objectivity, supplement the assessments and, at the same time, solving the limitations that scales have. Biomechanical studies are examples of objective methods, in which several technologies can be used to collect information from the subjects. One kind of these studies is the kinematic movement analysis. By means of optoelectronics, inertial and electromagnetic technology, these studies provide objective information about the movement performed by the subjects during the execution of specific tasks. These systems provide large quantities of data without easy and intuitive interpretation. These data must necessarily be treated and reduced to a set of variables that, a priori, having a simpler interpretation for their use in the clinical practice. These were the main motivations of this research. The main objective was to propose a set of kinematic indices, or metrics that, objectively, assess the upper limb function and validate the proposed rates in populations with Spinal Cord Injury, for use as assessment tools in the clinical setting. This dissertation is framed within a research project: HYPER (Neurorobotic Devices for Functional Compensation and Rehabilitation of Motor Disorders, grant CSD2009- 00067 CONSOLIDER INGENIO 2010). Within this research project, research is conducted in relation to the biomechanical models development for determining the biomechanical requirements and movement patterns of the upper limb in healthy and people with Spinal Cord Injury. Moreover, research is conducted with respect to the proposed of new functional assessment instruments in the field of upper limb rehabilitation.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
La presente investigación tiene como objetivo el desarrollo de una metodología que favorezca la innovación en las empresas a través de la actividad directiva, analizando a su vez, su influencia a nivel macro, en los sistemas de innovación, en las políticas de innovación y en el capital intelectual y a nivel micro, en la innovación, en el desempeño y en el clima organizacional. Se estima importante realizar un estudio sobre este tema debido a que la innovación se considera un pilar crítico para el desarrollo social a través de la competitividad de las empresas, así como, una fuente importante de ventaja competitiva. Existe abundante literatura sobre la influencia de la innovación en la gestión empresarial y el papel que el liderazgo desempeña en términos generales. Sin embargo, la literatura presenta diversos estilos de liderazgo sin mostrar una línea consistente de interrelación entre ellos, por lo que finalmente no existe una relación sólida entre el liderazgo, la gestión empresarial y la innovación. Este hecho se debe, como se muestra en la tesis, a que la literatura analiza las organizaciones y el liderazgo desde una perspectiva sociológica u organizacional, y otra desde la perspectiva psicológica sin aportar una línea de articulación entre ambas. Es decir, la literatura analiza el comportamiento organizacional pero no su causa. A lo largo de la tesis se van desarrollando diferentes líneas de trabajo que se convierten en aportaciones empíricas y académicas. Así, una de las aportaciones de la tesis es la sustitución de la figura del líder como persona, por la de un directivo con una doble función; por un lado, la función de liderazgo cuyo objetivo es generar cambio y por el otro, la función de gestionar el día a día o desempeño. Sustituir la figura del líder por una doble funcionalidad directiva facilita la comprensión del concepto liderazgo, lo que permite a su vez, establecer estrategias para su desarrollo, haciendo una realidad el que el liderazgo puede ser aprendido. Este resultado constituye la primera aportación de la tesis. Así mismo, a través de un exhaustivo análisis de la literatura, se desarrolla una propuesta de liderazgo integrado de acuerdo con el modelo Stuart-Kotze, el cual se describe también ampliamente. Encontrar un modelo único de liderazgo supone la piedra angular para el desarrollo de la metodología. Esta propuesta de liderazgo integrado da lugar a la segunda aportación de la tesis. Del mismo modo, se realiza un estudio en profundidad de la perspectiva psicológica de las organizaciones desarrollando el constructo Miedo al Error (ME) que resulta ser un rasgo de la personalidad existente en todos los seres humanos y que presenta una influencia negativa tanto en el desempeño, como en la innovación empresarial. Este resultado permite identificar cuales son las verdaderas barreras para el ejercicio del liderazgo, señalando que la disminución del ME debe ser considerada como una competencia de la Inteligencia Emocional a ser desarrollada por los directivos. Este resultado constituye la tercera aportación de la tesis. Una vez desarrollado el modelo de gestión empresarial expuesto, se procede a su validación, analizando la relación entre los constructos que definen el modelo de gestión: el desempeño, la innovación y el ME. Para identificar las influencias o relaciones de causalidad que subyacen entre los constructos, se utilizó la técnica del modelo de ecuaciones estructurales (SEM). La población objeto de estudio estuvo constituida por 350 profesionales con responsabilidad directiva, procedentes de empresas del sector servicios repartidas por toda la geografía española. Como fuente primaria de recolección de información se utilizó el cuestionario desarrollado por Stuart-Kotze M-CPI (Momentum Continuous Performance Improvement). En primer lugar se procedió a evaluar las propiedades psicométricas del modelo de medida, llevándose a cabo un análisis factorial exploratorio (AFE) y un análisis factorial confirmatorio (AFC) de segundo orden. Los resultados obtenidos ponen de manifiesto que el constructo desempeño (D) viene determinado por dos dimensiones, (DOP), desempeño orientado hacia la planificación y (DORT), desempeño orientado hacia la realización de la tarea. Es decir, la muestra de directivos no percibe que la planificación en el día a día y la realización de la tarea estén articuladas. Posteriormente se procede a realizar el contraste del modelo a través del método de ecuaciones estructurales. Los resultados muestran que la relación de influencia de la dimensión DOP no es significativa, por lo que el constructo D queda representado únicamente por la dimensión DORT. Los resultados de la investigación proporcionan conclusiones e hipótesis para futuras investigaciones. Si bien la muestra de directivos realiza un plan estratégico, éste no se tiene en cuenta en el día a día. Este hecho podría explicar el alto grado de administración por crisis tan frecuente en la empresa española. A su vez, el ME presenta una influencia negativa en la innovación, lo que concuerda con la literatura. Al respecto, considerar el ME como un rasgo de la personalidad, presente tanto en directivos como en colaboradores, facilita la comprensión de las barreras de la organización hacia la comunicación abierta a la vez, que una dirección de trabajo para la mejora de la capacidad innovadora de la organización. Por último, los resultados establecen la existencia de una relación causal entre el desempeño diario y la innovación. Con respecto a este segundo resultado y analizando los comportamientos que identifican el constructo D surgen también varias conclusiones e hipótesis para futuras investigaciones. Los resultados ponen de manifiesto que la muestra de directivos genera iniciativas de cambio con la finalidad de que el trabajo diario salga adelante según los estándares de calidad definidos. Sin embargo, estas iniciativas sólo proceden de los directivos, sin participación alguna de los colaboradores, los cuales son sólo responsables de la implementación produciéndose la consiguiente desmotivación y pérdida de oportunidades. Esta conclusión pone de manifiesto que la innovación de las empresas de la muestra sucede para garantizar la eficiencia de los procesos existentes, pero en ningún caso surge de la iniciativa de buscar una mejor eficacia empresarial. Este hecho plantea un origen doble de la innovación en los procesos. La innovación proactiva que buscaría la mejora de la eficacia de la organización y una innovación de carácter reactiva que buscaría la salvaguarda de la eficiencia. Quizás sea esta la causa del gap existente entre la innovación en España y la innovación de los países que ocupan los primeros puestos en el ranking de producción de innovación lo que constituye un importante punto de partida para una investigación futura. ABSTRACT This research aims to develop a methodology that supports innovation in companies through the managers’ activity, analysing in turn its influence at the macro level: innovation systems, innovation policies and Intellectual capital and at the micro level: innovation itself, performance and organizational climate. It is considered important to conduct a study on this subject due to the fact that innovation is considered a critical pillar for the development and future of the enterprise and an important source of competitive advantage. There is abundant literature about the influence of innovation in business management and the role that leadership plays in general terms. However, the literature presents various styles of leadership without showing a consistent relationship among them, so finally there is not a strong relationship among leadership, business management and innovation. As shown in the thesis, this is due to the fact that the literature analyses organizations and leadership from a sociological or organizational perspective and from a psychological perspective, without providing a hinge line between the two. That is, the existing literature discusses organizational behaviour but not its cause. Throughout the thesis, different lines of work that become empirical and academic contributions have been developed. Thus, one of the contributions of the thesis is replacing the figure of the leader as a person, by a manager with a dual function. Firstly, we have the leadership role which aims to generate change and, on the other hand, the function to manage the day-to-day task or performance. Replacing the figure of the leader by a dual managerial functionality facilitates the understanding of the leadership concept, allowing in turn, to establish development strategies and making true that leadership can be learned. This outcome is the first contribution of the thesis. Likewise, through a comprehensive literature review, an integrated leadership proposal is developed, according to the Kotze model, which is also described widely. Finding a specific leadership model represents the cornerstone for the development of the methodology. This integrated leadership proposal leads to the second contribution of the thesis. Similarly, an in-depth study was conducted about the psychological perspective of the organizations disclosing the construct Fear of Failure. This construct is a personality trait that exists in all human beings and has a negative influence on both performance and business innovation. This outcome allows identifying which are the real barriers to the exercise of leadership, noting that the decrease in fear of failure must be considered as an Emotional Intelligence competence to be developed by managers. This outcome represents the third contribution of the thesis. Once a business management model has been developed, we proceed to its validation by analysing the relationship among the model constructs: management, innovation and fear of failure. To identify the influence or causal relationships underlying the constructs, a structural equation model (SEM) technique was used. The study population consisted of 350 professionals with managerial responsibility, from companies in the services sector scattered throughout the Spanish geography. As a primary source for gathering information a questionnaire developed by Kotze M-CPI (Continuous Performance Improvement Momentum) was used. First we proceeded to evaluate the psychometric properties of the measurement model, carrying out an exploratory factorial analysis (EFA) and a confirmatory factorial analysis (CFA) of second order. The results show that the performance construct D is determined by two-dimensions (DOP: performance oriented to planning) and (DORT: aiming at the realization of the task). That is, the sample of managers does not perceive that planning and the daily task are articulated. Then, we proceeded to make the contrast of the model through a structural equation model SEM. The results show that the influence of the DOP dimension is not significant, so that only the DORT dimension finally represents the construct D. The research outcomes provide conclusions and hypotheses for future research. Although the managers in the sample develop a strategic plan, it seems that managers do not take it into account in their daily tasks. This could explain the high degree of crisis management so prevalent in the Spanish companies. In turn, the fear of failure has a negative influence on innovation, consistent with the literature. In this regard, the fear of failure is considered as a personality trait, present in both managers and employees, which enables the understanding of organizational barriers to open communication and provides a direction to improve the organization’s innovative capacity as well. Finally, the results establish a causal relationship between daily performance and innovation. Regarding this second outcome and analysing the behaviours that identify the construct D, several conclusions and hypotheses for future research arise as well. The results show that the managers in the sample show initiatives of change in order to make everyday work go ahead, according to defined quality standards. However, these initiatives only come from managers without any participation of coworkers, which are only responsible for the implementation, and this produces discouragement and loss of opportunities. This finding shows that the innovation by the companies in the sample happens to guarantee the efficiency of existing processes, but do not arise from an initiative that seeks better business efficacy. This raises two sources of innovation in processes. The first source would be a proactive innovation that would seek improved organizational efficacy. The second one is a reactive innovation that would seek to safeguard efficiency. Perhaps this is the cause of the existing gap between the innovation activity in Spain and the innovation activity in those countries that occupy the top positions in the ranking of innovation outcomes. The Spanish companies seek process efficiency and the top innovators business efficacy. This is an important starting point for future research.