187 resultados para TESIS DE MAESTRIA EN CONSTRUCCIONES


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La investigación para el conocimiento del cerebro es una ciencia joven, su inicio se remonta a Santiago Ramón y Cajal en 1888. Desde esta fecha a nuestro tiempo la neurociencia ha avanzado mucho en el desarrollo de técnicas que permiten su estudio. Desde la neurociencia cognitiva hoy se explican muchos modelos que nos permiten acercar a nuestro entendimiento a capacidades cognitivas complejas. Aun así hablamos de una ciencia casi en pañales que tiene un lago recorrido por delante. Una de las claves del éxito en los estudios de la función cerebral ha sido convertirse en una disciplina que combina conocimientos de diversas áreas: de la física, de las matemáticas, de la estadística y de la psicología. Esta es la razón por la que a lo largo de este trabajo se entremezclan conceptos de diferentes campos con el objetivo de avanzar en el conocimiento de un tema tan complejo como el que nos ocupa: el entendimiento de la mente humana. Concretamente, esta tesis ha estado dirigida a la integración multimodal de la magnetoencefalografía (MEG) y la resonancia magnética ponderada en difusión (dMRI). Estas técnicas son sensibles, respectivamente, a los campos magnéticos emitidos por las corrientes neuronales, y a la microestructura de la materia blanca cerebral. A lo largo de este trabajo hemos visto que la combinación de estas técnicas permiten descubrir sinergias estructurofuncionales en el procesamiento de la información en el cerebro sano y en el curso de patologías neurológicas. Más específicamente en este trabajo se ha estudiado la relación entre la conectividad funcional y estructural y en cómo fusionarlas. Para ello, se ha cuantificado la conectividad funcional mediante el estudio de la sincronización de fase o la correlación de amplitudes entre series temporales, de esta forma se ha conseguido un índice que mide la similitud entre grupos neuronales o regiones cerebrales. Adicionalmente, la cuantificación de la conectividad estructural a partir de imágenes de resonancia magnética ponderadas en difusión, ha permitido hallar índices de la integridad de materia blanca o de la fuerza de las conexiones estructurales entre regiones. Estas medidas fueron combinadas en los capítulos 3, 4 y 5 de este trabajo siguiendo tres aproximaciones que iban desde el nivel más bajo al más alto de integración. Finalmente se utilizó la información fusionada de MEG y dMRI para la caracterización de grupos de sujetos con deterioro cognitivo leve, la detección de esta patología resulta relevante en la identificación precoz de la enfermedad de Alzheimer. Esta tesis está dividida en seis capítulos. En el capítulos 1 se establece un contexto para la introducción de la connectómica dentro de los campos de la neuroimagen y la neurociencia. Posteriormente en este capítulo se describen los objetivos de la tesis, y los objetivos específicos de cada una de las publicaciones científicas que resultaron de este trabajo. En el capítulo 2 se describen los métodos para cada técnica que fue empleada: conectividad estructural, conectividad funcional en resting state, redes cerebrales complejas y teoría de grafos y finalmente se describe la condición de deterioro cognitivo leve y el estado actual en la búsqueda de nuevos biomarcadores diagnósticos. En los capítulos 3, 4 y 5 se han incluido los artículos científicos que fueron producidos a lo largo de esta tesis. Estos han sido incluidos en el formato de la revista en que fueron publicados, estando divididos en introducción, materiales y métodos, resultados y discusión. Todos los métodos que fueron empleados en los artículos están descritos en el capítulo 2 de la tesis. Finalmente, en el capítulo 6 se concluyen los resultados generales de la tesis y se discuten de forma específica los resultados de cada artículo. ABSTRACT In this thesis I apply concepts from mathematics, physics and statistics to the neurosciences. This field benefits from the collaborative work of multidisciplinary teams where physicians, psychologists, engineers and other specialists fight for a common well: the understanding of the brain. Research on this field is still in its early years, being its birth attributed to the neuronal theory of Santiago Ramo´n y Cajal in 1888. In more than one hundred years only a very little percentage of the brain functioning has been discovered, and still much more needs to be explored. Isolated techniques aim at unraveling the system that supports our cognition, nevertheless in order to provide solid evidence in such a field multimodal techniques have arisen, with them we will be able to improve current knowledge about human cognition. Here we focus on the multimodal integration of magnetoencephalography (MEG) and diffusion weighted magnetic resonance imaging. These techniques are sensitive to the magnetic fields emitted by the neuronal currents and to the white matter microstructure, respectively. The combination of such techniques could bring up evidences about structural-functional synergies in the brain information processing and which part of this synergy fails in specific neurological pathologies. In particular, we are interested in the relationship between functional and structural connectivity, and how two integrate this information. We quantify the functional connectivity by studying the phase synchronization or the amplitude correlation between time series obtained by MEG, and so we get an index indicating similarity between neuronal entities, i.e. brain regions. In addition we quantify structural connectivity by performing diffusion tensor estimation from the diffusion weighted images, thus obtaining an indicator of the integrity of the white matter or, if preferred, the strength of the structural connections between regions. These quantifications are then combined following three different approaches, from the lowest to the highest level of integration, in chapters 3, 4 and 5. We finally apply the fused information to the characterization or prediction of mild cognitive impairment, a clinical entity which is considered as an early step in the continuum pathological process of dementia. The dissertation is divided in six chapters. In chapter 1 I introduce connectomics within the fields of neuroimaging and neuroscience. Later in this chapter we describe the objectives of this thesis, and the specific objectives of each of the scientific publications that were produced as result of this work. In chapter 2 I describe the methods for each of the techniques that were employed, namely structural connectivity, resting state functional connectivity, complex brain networks and graph theory, and finally, I describe the clinical condition of mild cognitive impairment and the current state of the art in the search for early biomarkers. In chapters 3, 4 and 5 I have included the scientific publications that were generated along this work. They have been included in in their original format and they contain introduction, materials and methods, results and discussion. All methods that were employed in these papers have been described in chapter 2. Finally, in chapter 6 I summarize all the results from this thesis, both locally for each of the scientific publications and globally for the whole work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo de la fusión nuclear y desarrollándose en paralelo a ITER (International Thermonuclear Experimental Reactor), el proyecto IFMIF (International Fusion Material Irradiation Facility) se enmarca dentro de las actividades complementarias encaminadas a solucionar las barreras tecnológicas que aún plantea la fusión. En concreto IFMIF es una instalación de irradiación cuya misión es caracterizar materiales resistentes a condiciones extremas como las esperadas en los futuros reactores de fusión como DEMO (DEMOnstration power plant). Consiste de dos aceleradores de deuterones que proporcionan un haz de 125 mA y 40 MeV cada uno, que al colisionar con un blanco de litio producen un flujo neutrónico intenso (1017 neutrones/s) con un espectro similar al de los neutrones de fusión [1], [2]. Dicho flujo neutrónico es empleado para irradiar los diferentes materiales candidatos a ser empleados en reactores de fusión, y las muestras son posteriormente examinadas en la llamada instalación de post-irradiación. Como primer paso en tan ambicioso proyecto, una fase de validación y diseño llamada IFMIFEVEDA (Engineering Validation and Engineering Design Activities) se encuentra actualmente en desarrollo. Una de las actividades contempladas en esta fase es la construcción y operación de una acelarador prototipo llamado LIPAc (Linear IFMIF Prototype Accelerator). Se trata de un acelerador de deuterones de alta intensidad idéntico a la parte de baja energía de los aceleradores de IFMIF. Los componentes del LIPAc, que será instalado en Japón, son suministrados por diferentes países europeos. El acelerador proporcionará un haz continuo de deuterones de 9 MeV con una potencia de 1.125 MW que tras ser caracterizado con diversos instrumentos deberá pararse de forma segura. Para ello se requiere un sistema denominado bloque de parada (Beam Dump en inglés) que absorba la energía del haz y la transfiera a un sumidero de calor. España tiene el compromiso de suministrar este componente y CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) es responsable de dicha tarea. La pieza central del bloque de parada, donde se para el haz de iones, es un cono de cobre con un ángulo de 3.5o, 2.5 m de longitud y 5 mm de espesor. Dicha pieza está refrigerada por agua que fluye en su superficie externa por el canal que se forma entre el cono de cobre y otra pieza concéntrica con éste. Este es el marco en que se desarrolla la presente tesis, cuyo objeto es el diseño del sistema de refrigeración del bloque de parada del LIPAc. El diseño se ha realizado utilizando un modelo simplificado unidimensional. Se han obtenido los parámetros del agua (presión, caudal, pérdida de carga) y la geometría requerida en el canal de refrigeración (anchura, rugosidad) para garantizar la correcta refrigeración del bloque de parada. Se ha comprobado que el diseño permite variaciones del haz respecto a la situación nominal siendo el flujo crítico calorífico al menos 2 veces superior al nominal. Se han realizado asimismo simulaciones fluidodinámicas 3D con ANSYS-CFX en aquellas zonas del canal de refrigeración que lo requieren. El bloque de parada se activará como consecuencia de la interacción del haz de partículas lo que impide cualquier cambio o reparación una vez comenzada la operación del acelerador. Por ello el diseño ha de ser muy robusto y todas las hipótesis utilizadas en la realización de éste deben ser cuidadosamente comprobadas. Gran parte del esfuerzo de la tesis se centra en la estimación del coeficiente de transferencia de calor que es determinante en los resultados obtenidos, y que se emplea además como condición de contorno en los cálculos mecánicos. Para ello por un lado se han buscado correlaciones cuyo rango de aplicabilidad sea adecuado para las condiciones del bloque de parada (canal anular, diferencias de temperatura agua-pared de decenas de grados). En un segundo paso se han comparado los coeficientes de película obtenidos a partir de la correlación seleccionada (Petukhov-Gnielinski) con los que se deducen de simulaciones fluidodinámicas, obteniendo resultados satisfactorios. Por último se ha realizado una validación experimental utilizando un prototipo y un circuito hidráulico que proporciona un flujo de agua con los parámetros requeridos en el bloque de parada. Tras varios intentos y mejoras en el experimento se han obtenido los coeficientes de película para distintos caudales y potencias de calentamiento. Teniendo en cuenta la incertidumbre de las medidas, los valores experimentales concuerdan razonablemente bien (en el rango de 15%) con los deducidos de las correlaciones. Por motivos radiológicos es necesario controlar la calidad del agua de refrigeración y minimizar la corrosión del cobre. Tras un estudio bibliográfico se identificaron los parámetros del agua más adecuados (conductividad, pH y concentración de oxígeno disuelto). Como parte de la tesis se ha realizado asimismo un estudio de la corrosión del circuito de refrigeración del bloque de parada con el doble fin de determinar si puede poner en riesgo la integridad del componente, y de obtener una estimación de la velocidad de corrosión para dimensionar el sistema de purificación del agua. Se ha utilizado el código TRACT (TRansport and ACTivation code) adaptándalo al caso del bloque de parada, para lo cual se trabajó con el responsable (Panos Karditsas) del código en Culham (UKAEA). Los resultados confirman que la corrosión del cobre en las condiciones seleccionadas no supone un problema. La Tesis se encuentra estructurada de la siguiente manera: En el primer capítulo se realiza una introducción de los proyectos IFMIF y LIPAc dentro de los cuales se enmarca esta Tesis. Además se describe el bloque de parada, siendo el diseño del sistema de rerigeración de éste el principal objetivo de la Tesis. En el segundo y tercer capítulo se realiza un resumen de la base teórica así como de las diferentes herramientas empleadas en el diseño del sistema de refrigeración. El capítulo cuarto presenta los resultados del relativos al sistema de refrigeración. Tanto los obtenidos del estudio unidimensional, como los obtenidos de las simulaciones fluidodinámicas 3D mediante el empleo del código ANSYS-CFX. En el quinto capítulo se presentan los resultados referentes al análisis de corrosión del circuito de refrigeración del bloque de parada. El capítulo seis se centra en la descripción del montaje experimental para la obtención de los valores de pérdida de carga y coeficiente de transferencia del calor. Asimismo se presentan los resultados obtenidos en dichos experimentos. Finalmente encontramos un capítulo de apéndices en el que se describen una serie de experimentos llevados a cabo como pasos intermedios en la obtención del resultado experimental del coeficiente de película. También se presenta el código informático empleado para el análisis unidimensional del sistema de refrigeración del bloque de parada llamado CHICA (Cooling and Heating Interaction and Corrosion Analysis). ABSTRACT In the nuclear fusion field running in parallel to ITER (International Thermonuclear Experimental Reactor) as one of the complementary activities headed towards solving the technological barriers, IFMIF (International Fusion Material Irradiation Facility) project aims to provide an irradiation facility to qualify advanced materials resistant to extreme conditions like the ones expected in future fusion reactors like DEMO (DEMOnstration Power Plant). IFMIF consists of two constant wave deuteron accelerators delivering a 125 mA and 40 MeV beam each that will collide on a lithium target producing an intense neutron fluence (1017 neutrons/s) with a similar spectra to that of fusion neutrons [1], [2]. This neutron flux is employed to irradiate the different material candidates to be employed in the future fusion reactors, and the samples examined after irradiation at the so called post-irradiative facilities. As a first step in such an ambitious project, an engineering validation and engineering design activity phase called IFMIF-EVEDA (Engineering Validation and Engineering Design Activities) is presently going on. One of the activities consists on the construction and operation of an accelerator prototype named LIPAc (Linear IFMIF Prototype Accelerator). It is a high intensity deuteron accelerator identical to the low energy part of the IFMIF accelerators. The LIPAc components, which will be installed in Japan, are delivered by different european countries. The accelerator supplies a 9 MeV constant wave beam of deuterons with a power of 1.125 MW, which after being characterized by different instruments has to be stopped safely. For such task a beam dump to absorb the beam energy and take it to a heat sink is needed. Spain has the compromise of delivering such device and CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) is responsible for such task. The central piece of the beam dump, where the ion beam is stopped, is a copper cone with an angle of 3.5o, 2.5 m long and 5 mm width. This part is cooled by water flowing on its external surface through the channel formed between the copper cone and a concentric piece with the latter. The thesis is developed in this realm, and its objective is designing the LIPAc beam dump cooling system. The design has been performed employing a simplified one dimensional model. The water parameters (pressure, flow, pressure loss) and the required annular channel geometry (width, rugoisty) have been obtained guaranteeing the correct cooling of the beam dump. It has been checked that the cooling design allows variations of the the beam with respect to the nominal position, being the CHF (Critical Heat Flux) at least twice times higher than the nominal deposited heat flux. 3D fluid dynamic simulations employing ANSYS-CFX code in the beam dump cooling channel sections which require a more thorough study have also been performed. The beam dump will activateasaconsequenceofthe deuteron beam interaction, making impossible any change or maintenance task once the accelerator operation has started. Hence the design has to be very robust and all the hypotheses employed in the design mustbecarefully checked. Most of the work in the thesis is concentrated in estimating the heat transfer coefficient which is decisive in the obtained results, and is also employed as boundary condition in the mechanical analysis. For such task, correlations which applicability range is the adequate for the beam dump conditions (annular channel, water-surface temperature differences of tens of degrees) have been compiled. In a second step the heat transfer coefficients obtained from the selected correlation (Petukhov- Gnielinski) have been compared with the ones deduced from the 3D fluid dynamic simulations, obtaining satisfactory results. Finally an experimental validation has been performed employing a prototype and a hydraulic circuit that supplies a flow with the requested parameters in the beam dump. After several tries and improvements in the experiment, the heat transfer coefficients for different flows and heating powers have been obtained. Considering the uncertainty in the measurements the experimental values agree reasonably well (in the order of 15%) with the ones obtained from the correlations. Due to radiological reasons the quality of the cooling water must be controlled, hence minimizing the copper corrosion. After performing a bibligraphic study the most adequate water parameters were identified (conductivity, pH and dissolved oxygen concentration). As part of this thesis a corrosion study of the beam dump cooling circuit has been performed with the double aim of determining if corrosion can pose a risk for the copper beam dump , and obtaining an estimation of the corrosion velocitytodimension the water purification system. TRACT code(TRansport and ACTivation) has been employed for such study adapting the code for the beam dump case. For such study a collaboration with the code responsible (Panos Karditsas) at Culham (UKAEA) was established. The work developed in this thesis has supposed the publication of three articles in JCR journals (”Journal of Nuclear Materials” y ”Fusion Engineering and Design”), as well as presentations in more than four conferences and relevant meetings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El desarrollo de sensores está ganando cada vez mayor importancia debido a la concienciación ciudadana sobre el medio ambiente haciendo que su desarrollo sea muy elevado en todas las disciplinas, entre las que cabe destacar, la medicina, la biología y la química. A pesar de la existencia de estos dispositivos, este área está aún por mejorar, ya que muchos de los materiales propuestos hasta el momento e incluso los ya comercializados muestran importantes carencias de funcionamiento, eficiencia e integrabilidad entre otros. Para la mejora de estos dispositivos, se han propuesto diversas aproximaciones basadas en nanosistemas. Quizá, uno de las más prometedoras son las nanoestructuras de punto cuántico, y en particular los semiconductores III-V basados en la consolidada tecnología de los arseniuros, las cuáles ofrecen excelentes propiedades para su uso como sensores. Además, estudios recientes demuestran su gran carácter sensitivo al medio ambiente, la posibilidad de funcionalizar la superficie para la fabricación de sensores interdisciplinares y posibilididad de mejorar notablemente su eficiencia. A lo largo de esta tesis, nos centramos en la investigación de SQD de In0.5Ga0.5As sobre substratos de GaAs(001) para el desarrollo de sensores de humedad. La tesis abarca desde el diseño, crecimiento y caracterización de las muestras hasta la el posterior procesado y caracterización de los dispositivos finales. La optimización de los parámetros de crecimiento es fundamental para conseguir una nanoestructura con las propiedades operacionales idóneas para un fin determinado. Como es bien sabido en la literatura, los parámetros de crecimiento (temperatura de crecimiento, relación de flujos del elemento del grupo V y del grupo I II (V/III), velocidad de crecimiento y tratamiento térmico después de la formación de la capa activa) afectan directamente a las propiedades estructurales, y por tanto, operacionales de los puntos cuánticos (QD). En esta tesis, se realiza un estudio de las condiciones de crecimiento para el uso de In0.5Ga0.5As SQDs como sensores. Para los parámetros relacionados con la temperatura de crecimiento de los QDs y la relación de flujos V / I I I se utilizan los estudios previamente realizados por el grupo. Mientras que este estudio se centrará en la importancia de la velocidad de crecimiento y en el tratamiento térmico justo después de la nucleación de los QDs. Para ello, se establece la temperatura de creciemiento de los QDs en 430°C y la relación de flujos V/III en 20. Como resultado, los valores más adecuados que se obtienen para la velocidad de crecimiento y el tratamiento térmico posterior a la formación de los puntos son, respectivamente, 0.07ML/s y la realización de una bajada y subida brusca de la temperatura del substrato de 100°C con respecto a la temperatura de crecimiento de los QDs. El crecimiento a una velocidad lo suficientemente alta que permita la migración de los átomos por la superficie, pero a su vez lo suficientemente baja para que se lleve a cabo la nucleación de los QDs; en combinación con el tratamiento brusco de temperatura que hace que se conserve la forma y composición de los QDs, da lugar a unos SQDs con un alto grado de homogeneidad y alta densidad superficial. Además, la caracterización posterior indica que estas nanoestructuras de gran calidad cristalina presentan unas propiedades ópticas excelentes incluso a temperatura ambiente. Una de las características por la cual los SQD de Ino.5Gao.5As se consideran candidatos prometedores para el desarrollo de sensores es el papel decisivo que juega la superficie por el mero hecho de estar en contacto directo con las partículas del ambiente y, por tanto, por ser capaces de interactuar con sus moléculas. Así pues, con el fin de demostrar la idoneidad de este sistema para dicha finalidad, se evalúa el impacto ambiental en las propiedades ópticas y eléctricas de las muestras. En un primer lugar, se analiza el efecto que tiene el medio en las propiedades ópticas. Para dicha evaluación se compara la variación de las propiedades de emisión de una capa de puntos enterrada y una superficial en distintas condiciones externas. El resultado que se obtiene es muy claro, los puntos enterrados no experimentan un cambio óptico apreciable cuando se varían las condiciones del entorno; mientras que, la emisión de los SQDs se modifica significativamente con las condiciones del medio. Por una parte, la intensidad de emisión de los puntos superficiales desaparece en condiciones de vacío y decrece notablemente en atmósferas secas de gases puros (N2, O2). Por otra parte, la fotoluminiscencia se conserva en ambientes húmedos. Adicionalmente, se observa que la anchura a media altura y la longitud de onda de emisión no se ven afectadas por los cambios en el medio, lo que indica, que las propiedades estructurales de los puntos se conservan al variar la atmósfera. Estos resultados apuntan directamente a los procesos que tienen lugar en la superficie entre estados confinados y superficiales como responsables principales de este comportamiento. Así mismo, se ha llevado a cabo un análisis más detallado de la influencia de la calidad y composición de la atmósfera en las propiedades ópticas de los puntos cuánticos superficiales. Para ello, se utilizan distintas sustancias con diferente polaridad, composición atómica y masa molecular. Como resultado se observa que las moléculas de menor polaridad y más pesadas causan una mayor variación en la intensidad de emisión. Además, se demuestra que el oxígeno juega un papel decisivo en las propiedades ópticas. En presencia de moléculas que contienen oxígeno, la intensidad de fotoluminiscencia disminuye menos que en atmósferas constituidas por especies que no contienen oxígeno. Las emisión que se observa respecto a la señal en aire es del 90% y del 77%, respectivamente, en atmósferas con presencia o ausencia de moléculas de oxígeno. El deterioro de la señal de emisión se atribuye a la presencia de defectos, enlaces insaturados y, en general, estados localizados en la superficie. Estos estados actúan como centros de recombinación no radiativa y, consecuentemente, se produce un empeoramiento de las propiedades ópticas de los SQDs. Por tanto, la eliminación o reducción de la densidad de estos estados superficiales haría posible una mejora de la intensidad de emisión. De estos experimentos de fotoluminiscencia, se deduce que las interacciones entre las moléculas presentes en la atmósfera y la superficie de la muestra modifican la superficie. Esta alteración superficial se traduce en un cambio significativo en las propiedades de emisión. Este comportamiento se atribuye a la posible adsorción de moléculas sobre la superficie pasivando los centros no radiativos, y como consecuencia, mejorando las propiedades ópticas. Además, los resultados demuestran que las moléculas que contienen oxígeno con mayor polaridad y más ligeras son adsorbidas con mayor facilidad, lo que hace que la intensidad óptica sufra variaciones despreciables con respecto a la emisión en aire. Con el fin de desarrollar sensores, las muestras se procesan y los dispositivos se caracterizan eléctricamente. El procesado consiste en dos contactos cuadrados de una aleación de Ti/Au. Durante el procesado, lo más importante a tener en cuenta es no realizar ningún ataque o limpieza que pueda dañar la superficie y deteriorar las propiedades de las nanostructuras. En este apartado, se realiza un análisis completo de una serie de tres muestras: GaAs (bulk), un pozo cuántico superficial (SQW) de Ino.5Gao.5As y SQDs de Ino.5Gao.5As. Para ello, a cada una de las muestras se le realizan medidas de I-V en distintas condiciones ambientales. En primer lugar, siguiendo los resultados obtenidos ópticamente, se lleva a cabo una comparación de la respuesta eléctrica en vacío y aire. A pesar de que todas las muestras presentan un carácter más resistivo en vacío que en aire, se observa una mayor influencia sobre la muestra de SQD. En vacío, la resistencia de los SQDs decrece un 99% respecto de su valor en aire, mientras que la variación de la muestras de GaAs e Ino.5Gao.5As SQW muestran una reducción, respectivamente, del 31% y del 20%. En segundo lugar, se realiza una evaluación aproximada del posible efecto de la humedad en la resistencia superficial de las muestras mediante la exhalación humana. Como resultado se obtiene, que tras la exhalación, la resistencia disminuye bruscamente y recupera su valor inicial cuando dicho proceso concluye. Este resultado preliminar indica que la humedad es un factor crítico en las propiedades eléctricas de los puntos cuánticos superficiales. Para la determinación del papel de la humedad en la respuesta eléctrica, se somete a las muestras de SQD y SQW a ambientes con humedad relativa (RH, de la siglas del inglés) controlada y se analiza el efecto sobre la conductividad superficial. Tras la variación de la RH desde 0% hasta el 70%, se observa que la muestra SQW no cambia su comportamiento eléctrico al variar la humedad del ambiente. Sin embargo, la respuesta de la muestra SQD define dos regiones bien diferenciadas, una de alta sensibilidad para valores por debajo del 50% de RH, en la que la resistencia disminuye hasta en un orden de magnitud y otra, de baja sensibilidad (>50%), donde el cambio de la resistencia es menor. Este resultado resalta la especial relevancia no sólo de la composición sino también de la morfología de la nanostructura superficial en el carácter sensitivo de la muestra. Por último, se analiza la influencia de la iluminación en la sensibilidad de la muestra. Nuevamente, se somete a las muestras SQD y SQW a una irradiación de luz de distinta energía y potencia a la vez que se varía controladamente la humedad ambiental. Una vez más, se observa que la muestra SQW no presenta ninguna variación apreciable con las alteraciones del entorno. Su resistencia superficial permanece prácticamente inalterable tanto al modificar la potencia de la luz incidente como al variar la energía de la irradiación. Por el contrario, en la muestra de SQD se obtiene una reducción la resistencia superficial de un orden de magnitud al pasar de condiciones de oscuridad a iluminación. Con respecto a la potencia y energía de la luz incidente, se observa que a pesar de que la muestra no experimenta variaciones notables con la potencia de la irradiación, esta sufre cambios significativos con la energía de la luz incidente. Cuando se ilumina con energías por encima de la energía de la banda prohibida (gap) del GaAs (Eg ~1.42 eV ) se produce una reducción de la resistencia de un orden de magnitud en atmósferas húmedas, mientras que en atmósferas secas la conductividad superficial permanece prácticamente constante. Sin embargo, al inicidir con luz de energía menor que Eg, el efecto que se produce en la respuesta eléctrica es despreciable. Esto se atribuye principalmente a la densidad de portadores fotoactivados durante la irradiación. El volumen de portadores excita dos depende de la energía de la luz incidente. De este modo, cuando la luz que incide tiene energía menor que el gap, el volumen de portadores generados es pequeño y no contribuye a la conductividad superficial. Por el contrario, cuando la energía de la luz incidente es alta (Eg), el volumen de portadores activados es elevado y éstos contribuyen significantemente a la conductividad superficial. La combinación de ambos agentes, luz y humedad, favorece el proceso de adsorción de moléculas y, por tanto, contribuye a la reducción de la densidad de estados superficiales, dando lugar a una modificación de la estructura electrónica y consecuentemente favoreciendo o dificultando el transporte de portadores. ABSTRACT Uncapped three-dimensional (3D) nanostructures have been generally grown to assess their structural quality. However, the tremendous growing importance of the impact of the environment on life has become such nanosystems in very promising candidates for the development of sensing devices. Their direct exposure to changes in the local surrounding may influence their physical properties being a perfect sign of the atmosphere quality. The goal of this thesis is the research of Ino.5Gao.5As surface quantum dots (SQDs) on GaAs(001), covering from their growth to device fabrication, for sensing applications. The achievement of this goal relies on the design, growth and sample characterization, along with device fabrication and characterization. The first issue of the thesis is devoted to analyze the main growth parameters affecting the physical properties of the Ino.5Gao.5As SQDs. It is well known that the growing conditions (growth temperature , deposition rate, V/III flux ratio and treatment after active layer growth) directly affect the physical properties of the epilayer. In this part, taking advantage of the previous results in the group regarding Ino.5Gao.5As QD growth temperature and V/III ratio, the effect of the growth rate and the temperature treatment after QDs growth nucleation is evaluated. Setting the QDs growth temperature at 430°C and the V/III flux ratio to ~20, it is found that the most appropriate conditions rely on growing the QDs at 0.07ML/s and just after QD nucleation, rapidly dropping and again raising 100°C the substrate temperature with respect to the temperature of QD growth. The combination of growing at a fast enough growth rate to promote molecule migration but sufficiently slow to allow QD nucleation, together with the sharp variation of the temperature preserving their shape and composition yield to high density, homogeneous Ino.5Gao.5As SQDs. Besides, it is also demonstrated that this high quality SQDs show excellent optical properties even at room temperature (RT). One of the characteristics by which In0.5Ga0.5As/GaAs SQDs are considered promising candidates for sensing applications is the crucial role that surface plays when interacting with the gases constituting the atmosphere. Therefore, in an attempt to develop sensing devices, the influence of the environment on the physical properties of the samples is evaluated. By comparing the resulting photoluminescence (PL) of SQDs with buried QDs (BQDs), it is found that BQDs do not exhibit any significant variation when changing the environmental conditions whereas, the external conditions greatly act on the SQDs optical properties. On one hand, it is evidenced that PL intensity of SQDs sharply quenches under vacuum and clearly decreases under dry-pure gases atmospheres (N2, O2). On the other hand, it is shown that, in water containing atmospheres, the SQDs PL intensity is maintained with respect to that in air. Moreover, it is found that neither the full width at half maximun nor the emission wavelength manifest any noticeable change indicating that the QDs are not structurally altered by the external atmosphere. These results decisively point to the processes taking place at the surface such as coupling between confined and surface states, to be responsible of this extraordinary behavior. A further analysis of the impact of the atmosphere composition on the optical characteristics is conducted. A sample containing one uncapped In0.5Ga0.5As QDs layer is exposed to different environments. Several solvents presenting different polarity, atomic composition and molecular mass, are used to change the atmosphere composition. It is revealed that low polarity and heavy molecules cause a greater variation on the PL intensity. Besides, oxygen is demonstrated to play a decisive role on the PL response. Results indicate that in presence of oxygen-containing molecules, the PL intensity experiments a less reduction than that suffered in presence of nonoxygen-containing molecules, 90% compared to 77% signal respect to the emission in air. In agreement with these results, it is demonstrated that high polarity and lighter molecules containing oxygen are more easily adsorbed, and consequently, PL intensity is less affected. The presence of defects, unsaturated bonds and in general localized states in the surface are proposed to act as nonradiative recombination centers deteriorating the PL emission of the sample. Therefore, suppression or reduction of the density of such states may lead to an increase or, at least, conservation of the PL signal. This research denotes that the interaction between sample surface and molecules in the atmosphere modifies the surface characteristics altering thus the optical properties. This is attributed to the likely adsoption of some molecules onto the surface passivating the nonradiative recombination centers, and consequently, not deteriorating the PL emission. Aiming for sensors development, samples are processed and electrically characterized under different external conditions. Samples are processed with two square (Ti/Au) contacts. During the processing, especial attention must be paid to the surface treatment. Any process that may damage the surface such as plasma etching or annealing must be avoided to preserve the features of the surface nanostructures. A set of three samples: a GaAs (bulk), In0.5Ga0.5As SQDs and In0.5Ga0.5As surface quantum well (SQW) are subjected to a throughout evaluation. I-V characteristics are measured following the results from the optical characterization. Firstly, the three samples are exposed to vacuum and air. Despite the three samples exhibit a more resistive character in vacuum than in air, it is revealed a much more clear influence of the pressure atmosphere in the SQDs sample. The sheet resistance (Rsh) of SQDs decreases a 99% from its response value under vacuum to its value in air, whereas Rsh of GaAs and In0.5Ga0.5As SQW reduces its value a 31% and a 20%, respectively. Secondly, a rough analysis of the effect of the human breath on the electrical response evidences the enormous influence of moisture (human breath is composed by several components but the one that overwhelms all the rest is the high concentration of water vapor) on the I-V characteristics. Following this result, In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW are subjected to different controlled relative humidity (RH) environments (from 0% to 70%) and electrically characterized. It is found that SQW shows a nearly negligible Rsh variation when increasing the RH in the surroundings. However, the response of SQDs to changes in the RH defines two regions. Below 50%, high sensitive zone, Rsh of SQD decreases by more than one order of magnitude, while above 50% the dependence of Rsh on the RH becomes weaker. These results remark the role of the surface and denote the existence of a finite number of surface states. Nevertheless, most significantly, they highlight the importance not only of the material but also of the morphology. Finally, the impact of the illumination is determined by means of irradiating the In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW samples with different energy and power sources. Once again, SQW does not exhibit any correlation between the surface conductivity and the external conditions. Rsh remains nearly unalterable independently of the energy and power of the incident light. Conversely, Rsh of SQD experiences a decay of one order of magnitude from dark-to-photo conditions. This is attributed to the less density of surface states of SQW compared to that of SQDs. Additionally, a different response of Rsh of SQD with the energy of the impinging light is found. Illuminating with high energy light results in a Rsh reduction of one order of mag nitude under humid atmospheres, whereas it remains nearly unchanged under dry environments. On the contrary, light with energy below the bulk energy bandgap (Eg), shows a negligible effect on the electrical properties regardless the local moisture. This is related to the density of photocarriers generated while lighting up. Illuminating with excitation energy below Eg affects a small absorption volume and thus, a low density of photocarriers may be activated leading to an insignificant contribution to the conductivity. Nonetheless, irradiating with energy above the Eg can excite a high density of photocarriers and greatly improve the surface conductivity. These results demonstrate that both illumination and humidity are therefore needed for sensing. The combination of these two agents improves the surface passivation by means of molecule adsorption reducing the density of surface states, thus modifying the electronic structures, and consequently, promoting the carrier motion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestión de los recursos hídricos se convierte en un reto del presente y del futuro frente a un panorama de continuo incremento de la demanda de agua debido al crecimiento de la población, el crecimiento del desarrollo económico y los posibles efectos del calentamiento global. La política hidráulica desde los años 60 en España se ha centrado en la construcción de infraestructuras que han producido graves alteraciones en el régimen natural de los ríos. Estas alteraciones han provocado y acrecentado los impactos sobre los ecosistemas fluviales y ribereños. Desde los años 90, sin embargo, ha aumentado el interés de la sociedad para conservar estos ecosistemas. El concepto de caudales ambientales consiste en un régimen de caudales que simula las características principales del régimen natural. Los caudales ambientales están diseñados para conservar la estructura y funcionalidad de los ecosistemas asociados al régimen fluvial, bajo la hipótesis de que los elementos que conforman estos ecosistemas están profundamente adaptados al régimen natural de caudales, y que cualquier alteración del régimen natural puede provocar graves daños a todo el sistema. El método ELOHA (Ecological Limits of Hydrological Alteration) tiene como finalidad identificar las componentes del régimen natural de caudales que son clave para mantener el equilibrio de los ecosistemas asociados, y estimar los límites máximos de alteración de estas componentes para garantizar su buen estado. Esta tesis presenta la aplicación del método ELOHA en la cuenca del Ebro. La cuenca del Ebro está profundamente regulada e intervenida por el hombre, y sólo las cabeceras de los principales afluentes del Ebro gozan todavía de un régimen total o cuasi natural. La tesis se estructura en seis capítulos que desarrollan las diferentes partes del método. El primer capítulo explica cómo se originó el concepto “caudales ambientales” y en qué consiste el método ELOHA. El segundo capítulo describe el área de estudio. El tercer capítulo realiza una clasificación de los regímenes naturales de la cuenca (RNC) del Ebro, basada en series de datos de caudal mínimamente alterado y usando exclusivamente parámetros hidrológicos. Se identificaron seis tipos diferentes de régimen natural: pluvial mediterráneo, nivo-pluvial, pluvial mediterréaneo con una fuerte componente del caudal base, pluvial oceánico, pluvio-nival oceánico y Mediterráneo. En el cuarto capítulo se realiza una regionalización a toda la cuenca del Ebro de los seis RNC encontrados en la cueca. Mediante parámetros climáticos y fisiográficos se extrapola la información del tipo de RNC a puntos donde no existen datos de caudal inalterado. El patrón geográfico de los tipos de régimen fluvial obtenido con la regionalización resultó ser coincidente con el patrón obtenido a través de la clasificación hidrológica. El quinto capítulo presenta la validación biológica de los procesos de clasificación anteriores: clasificación hidrológica y regionalización. La validación biológica de los tipos de regímenes fluviales es imprescindible, puesto que los diferentes tipos de régimen fluvial van a servir de unidades de gestión para favorecer el mantenimiento de los ecosistemas fluviales. Se encontraron diferencias significativas entre comunidades biológicas en cinco de los seis tipos de RNC encontrados en la cuenca. Finalmente, en el sexto capítulo se estudian las relaciones hidro-ecológicas existentes en tres de los seis tipos de régimen fluvial encontrados en la cuenca del Ebro. Mediante la construcción de curvas hidro-ecológicas a lo largo de un gradiente de alteración hidrológica, se pueden sugerir los límites de alteración hidrológica (ELOHAs) para garantizar el buen estado ecológico en cada uno de los tipos fluviales estudiados. Se establecieron ELOHAs en tres de los seis tipos de RNC de la cuenca del Ebro Esta tesis, además, pone en evidencia la falta de datos biológicos asociados a registros de caudal. Para llevar a cabo la implantación de un régimen de caudales ambientales en la cuenca, la ubicación de los puntos de muestreo biológico cercanos a estaciones de aforo es imprescindible para poder extraer relaciones causa-efecto de la gestión hidrológica sobre los ecosistemas dependientes. ABSTRACT In view of a growing freshwater demand because of population raising, improvement of economies and the potential effects of climate change, water resources management has become a challenge for present and future societies. Water policies in Spain have been focused from the 60’s on constructing hydraulic infrastructures, in order to dampen flow variability and granting water availability along the year. Consequently, natural flow regimes have been deeply altered and so the depending habitats and its ecosystems. However, an increasing acknowledgment of societies for preserving healthy freshwater ecosystems started in the 90’s and agreed that to maintain healthy freshwater ecosystems, it was necessary to set environmental flow regimes based on the natural flow variability. The Natural Flow Regime paradigm (Richter et al. 1996, Poff et al. 1997) bases on the hypothesis that freshwater ecosystems are made up by elements adapted to natural flow conditions, and any change on these conditions can provoke deep impacts on the whole system. Environmental flow regime concept consists in designing a flow regime that emulates natural flow characteristics, so that ecosystem structure, functions and services are maintained. ELOHA framework (Ecological Limits of Hydrological Alteration) aims to identify key features of the natural flow regime (NFR) that are needed to maintain and preserve healthy freshwater and riparian ecosystems. Moreover, ELOHA framework aims to quantify thresholds of alteration of these flow features according to ecological impacts. This thesis describes the application of the ELOHA framework in the Ebro River Basin. The Ebro River basin is the second largest basin in Spain and it is highly regulated for human demands. Only the Ebro headwaters tributaries still have completely unimpaired flow regime. The thesis has six chapters and the process is described step by step. The first chapter makes an introduction to the origin of the environmental flow concept and the necessity to come up. The second chapter shows a description of the study area. The third chapter develops a classification of NFRs in the basin based on natural flow data and using exclusively hydrological parameters. Six NFRs were found in the basin: continental Mediterranean-pluvial, nivo-pluvial, continental Mediterranean pluvial (with groundwater-dominated flow pattern), pluvio-oceanic, pluvio-nival-oceanic and Mediterranean. The fourth chapter develops a regionalization of the six NFR types across the basin by using climatic and physiographic variables. The geographical pattern obtained from the regionalization process was consistent with the pattern obtained with the hydrologic classification. The fifth chapter performs a biological validation of both classifications, obtained from the hydrologic classification and the posterior extrapolation. When the aim of flow classification is managing water resources according to ecosystem requirements, a validation based on biological data is compulsory. We found significant differences in reference macroinvertebrate communities between five over the six NFR types identified in the Ebro River basin. Finally, in the sixth chapter we explored the existence of significant and explicative flow alteration-ecological response relationships (FA-E curves) within NFR types in the Ebro River basin. The aim of these curves is to find out thresholds of hydrological alteration (ELOHAs), in order to preserve healthy freshwater ecosystem. We set ELOHA values in three NFR types identified in the Ebro River basin. During the development of this thesis, an inadequate biological monitoring in the Ebro River basin was identified. The design and establishment of appropriate monitoring arrangements is a critical final step in the assessment and implementation of environmental flows. Cause-effect relationships between hydrology and macroinvertebrate community condition are the principal data that sustain FA-E curves. Therefore, both data sites must be closely located, so that the effects of external factors are minimized. The scarce hydro-biological pairs of data available in the basin prevented us to apply the ELOHA method at all NFR types.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el trabajo que aquí presentamos se incluye la base teórica (sintaxis y semántica) y una implementación de un framework para codificar el razonamiento de la representación difusa o borrosa del mundo (tal y como nosotros, seres humanos, entendemos éste). El interés en la realización de éste trabajo parte de dos fuentes: eliminar la complejidad existente cuando se realiza una implementación con un lenguaje de programación de los llamados de propósito general y proporcionar una herramienta lo suficientemente inteligente para dar respuestas de forma constructiva a consultas difusas o borrosas. El framework, RFuzzy, permite codificar reglas y consultas en una sintaxis muy cercana al lenguaje natural usado por los seres humanos para expresar sus pensamientos, pero es bastante más que eso. Permite representar conceptos muy interesantes, como fuzzificaciones (funciones usadas para convertir conceptos no difusos en difusos), valores por defecto (que se usan para devolver resultados un poco menos válidos que los que devolveríamos si tuviésemos la información necesaria para calcular los más válidos), similaridad entre atributos (característica que utilizamos para buscar aquellos individuos en la base de datos con una característica similar a la buscada), sinónimos o antónimos y, además, nos permite extender el numero de conectivas y modificadores (incluyendo modificadores de negación) que podemos usar en las reglas y consultas. La personalización de la definición de conceptos difusos (muy útil para lidiar con el carácter subjetivo de los conceptos borrosos, donde nos encontramos con que cualificar a alguien de “alto” depende de la altura de la persona que cualifica) es otra de las facilidades incluida. Además, RFuzzy implementa la semántica multi-adjunta. El interés en esta reside en que introduce la posibilidad de obtener la credibilidad de una regla a partir de un conjunto de datos y una regla dada y no solo el grado de satisfacción de una regla a partir de el universo modelado en nuestro programa. De esa forma podemos obtener automáticamente la credibilidad de una regla para una determinada situación. Aún cuando la contribución teórica de la tesis es interesante en si misma, especialmente la inclusión del modificador de negacion, sus multiples usos practicos lo son también. Entre los diferentes usos que se han dado al framework destacamos el reconocimiento de emociones, el control de robots, el control granular en computacion paralela/distribuída y las busquedas difusas o borrosas en bases de datos. ABSTRACT In this work we provide a theoretical basis (syntax and semantics) and a practical implementation of a framework for encoding the reasoning and the fuzzy representation of the world (as human beings understand it). The interest for this work comes from two sources: removing the existing complexity when doing it with a general purpose programming language (one developed without focusing in providing special constructions for representing fuzzy information) and providing a tool intelligent enough to answer, in a constructive way, expressive queries over conventional data. The framework, RFuzzy, allows to encode rules and queries in a syntax very close to the natural language used by human beings to express their thoughts, but it is more than that. It allows to encode very interesting concepts, as fuzzifications (functions to easily fuzzify crisp concepts), default values (used for providing results less adequate but still valid when the information needed to provide results is missing), similarity between attributes (used to search for individuals with a characteristic similar to the one we are looking for), synonyms or antonyms and it allows to extend the number of connectives and modifiers (even negation) we can use in the rules. The personalization of the definition of fuzzy concepts (very useful for dealing with the subjective character of fuzziness, in which a concept like tall depends on the height of the person performing the query) is another of the facilities included. Besides, RFuzzy implements the multi-adjoint semantics. The interest in them is that in addition to obtaining the grade of satisfaction of a consequent from a rule, its credibility and the grade of satisfaction of the antecedents we can determine from a set of data how much credibility we must assign to a rule to model the behaviour of the set of data. So, we can determine automatically the credibility of a rule for a particular situation. Although the theoretical contribution is interesting by itself, specially the inclusion of the negation modifier, the practical usage of it is equally important. Between the different uses given to the framework we highlight emotion recognition, robocup control, granularity control in parallel/distributed computing and flexible searches in databases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El 1 de enero de 2014 entró en vigor la Directiva Europea 2009/128/CE sobre uso sostenible de plaguicidas y el Real Decreto 1311/2012 por el cual se traspone dicha normativa comunitaria al ámbito nacional. Estos reglamentos establecen el marco legal por el que las explotaciones agrícolas deben cumplir los principios generales de la Gestión Integrada de Plagas (GIP). Los principios de la GIP dan preferencia a aquellos métodos de control que sean sostenibles y respetuosos con el medio ambiente, dando prioridad al control biológico, al físico y a otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos con los enemigos naturales es necesario en ocasiones para el adecuado manejo de las plagas en cultivos hortícolas. Por ello, el objetivo general de esta Tesis ha sido aportar conocimientos para la mejora del control de plagas en cultivos hortícolas, mediante la integración de estrategias de lucha biológica, física y química. La primera de las líneas de investigación de esta Tesis se centró en el estudio del efecto de la presencia dos depredadores, larvas Chrysoperla carnea y adultos de Adalia bipunctata, en la dispersión del virus de transmisión no persistente Cucumber mosaic virus (CMV) y del virus de transmisión persistente Cucurbit aphid-borne yellows virus (CABYV), transmitidos por el pulgón Aphis gosypii en cultivo de pepino. La tasa de transmisión de CMV fue baja para los dos tiempos de evaluación ensayados (1 y 5 días), debido al limitado movimiento de su vector A. gossypii. Las plantas que resultaron infectadas se localizaron próximas a la fuente de inóculo central y la presencia de ambos enemigos naturales no incrementó significativamente el porcentaje de plantas ocupadas por pulgones ni la tasa de transmisión de CMV. Los patrones de distribución de A. gossypii y de CMV tan solo fueron coincidentes en las proximidades de la planta central infectada en la que se liberaron los insectos. En los ensayos con CABYV, la presencia de C. carnea y de A. bipunctata respectivamente provocó un incremento significativo de la dispersión de A. gossypii tras 14 días, pero no tras 7 días desde la liberación de los insectos. La reducción en el número inicial de pulgones en la planta central infectada con CABYV fue siempre mayor tras la liberación de C. carnea en comparación con A. bipunctata. Sin embargo, la tasa de transmisión de CABYV y su distribución espacial no se vieron significativamente modificadas por la presencia de ninguno de los depredadores, ni tras 7 días ni tras 14 días desde el inicio de los ensayos. Al igual que se estudió el efecto de la presencia de enemigos naturales en el comportamiento de las plagas y en la epidemiología de las virosis que transmiten, en una segunda línea de investigación se evaluó el posible efecto del consumo de pulgones portadores de virus por parte de los enemigos naturales. Este trabajo se llevó a cabo en el Laboratorio de Ecotoxicología del Departamento de Entomología de la Universidade Federal de Lavras (UFLA) (Brasil). En él se evaluó la influencia en los parámetros biológicos del enemigo natural Chrysoperla externa al alimentarse de Myzus persicae contaminados con el virus de transmisión persistente Potato leafroll virus (PLRV). El consumo de M. persicae contaminados con PLRV incrementó significativamente la duración de la fase larvaria, reduciendo también la supervivencia en comparación a otras dos dietas a base de M. persicae no contaminados con el virus y huevos del lepidóptero Ephestia kuehniella. La duración de la fase de pupa de C. externa no difirió significativamente entre las dietas a base de pulgones contaminados con PLRV y pulgones no contaminados, pero ambas fueron menores que con la dieta con huevos de E. kuehniella. Sin embargo, ni la supervivencia en la fase de pupa ni los parámetros reproductivos de los adultos emergidos mostraron diferencias significativas entre las dietas evaluadas. Por el contrario, la supervivencia de los adultos durante los 30 primeros días desde su emergencia sí se vio significativamente afectada por la dieta, siendo al término de este periodo del 54% para aquellos adultos de C. externa que durante su fase larvaria consumieron pulgones con PLRV. Dentro de la GIP, una de las estrategias de carácter físico que se emplean para el control de plagas y enfermedades en cultivos hortícolas protegidos es el uso de plásticos con propiedades fotoselectivas de absorción de la radiación ultravioleta (UV). Por ello, la tercera línea de investigación de la Tesis se centró en el estudio de los efectos directos e indirectos (mediados por la planta) de condiciones especiales de baja radiación UV sobre el crecimiento poblacional del pulgón A. gossypii y los parámetros biológicos del enemigo natural C. carnea, así como sobre las plantas de pepino en las que se liberaron los insectos. Los ensayos se realizaron en jaulones dentro de invernadero, utilizándose en el primero de ellos plantas de pepino sanas, mientras que en el segundo las plantas de pepino fueron previamente infectadas con CABYV para estudiar de qué manera afectaba la incidencia del virus en las mismas condiciones. Las condiciones de baja radiación UV (bajo plástico Térmico Antivirus®) ejercieron un efecto directo en las fases iniciales del cultivo de pepino, promoviendo su crecimiento, mientras que en fases más avanzadas del cultivo indujeron un aumento en el contenido en nitrógeno de las plantas. Las plantas de pepino que fueron sometidas a mayor intensidad de radiación UV (bajo plástico Térmico Blanco®) al inicio del cultivo mostraron un engrosamiento significativo de las paredes de las células epidérmicas del haz de las hojas, así como de la cutícula. El uso del plástico Térmico Antivirus®, utilizado como barrera fotoselectiva para crear condiciones de baja radiación UV, no alteró con respecto al plástico Térmico Blanco® (utilizado como control) el desarrollo poblacional del pulgón A. gossypii ni los parámetros biológicos evaluados en el depredador C. carnea. En el segundo experimento, realizado con plantas infectadas con CABYV, la incidencia de la virosis enmascaró las diferencias encontradas en experimento con plantas sanas, reduciendo aparentemente la influencia de las distintas condiciones de radiación UV. Por último, para el desarrollo de las estrategias de GIP es importante estudiar los posibles efectos secundarios que los plaguicidas pueden tener en los enemigos naturales de las plagas. Es por ello que en la Tesis se evaluaron la toxicidad y los efectos subletales (fecundidad y fertilidad) de flonicamida, flubendiamida, metaflumizona, spirotetramat, sulfoxaflor y deltametrina en los enemigos naturales C. carnea y A. bipunctata. Los efectos secundarios fueron evaluados por contacto residual tanto para larvas como para adultos de ambos enemigos naturales en condiciones de laboratorio. Flonicamida, flubendiamida, metaflumizona y spirotetramat fueron inocuos para larvas de último estadio y adultos de C. carnea y A. bipunctata. Por este motivo, estos insecticidas se presentan como buenos candidatos para ser incorporados dentro de programas de GIP en combinación con estos enemigos naturales para el control de plagas de cultivos hortícolas. Sulfoxaflor fue ligeramente tóxico para adultos de C. carnea y altamente tóxico para larvas de último estadio de A. bipunctata. Para A. bipunctata, sulfoxaflor y deltametrina fueron los compuestos más dañinos. Deltametrina fue también el compuesto más tóxico para larvas y adultos de C. carnea. Por tanto, el uso de deltametrina y sulfoxaflor en programas de GIP debería tomarse en consideración cuando se liberasen cualquiera de estos dos enemigos naturales debido al comportamiento tóxico que mostraron en condiciones de laboratorio. ABSTRACT On 1 January 2014 came into effect the Directive 2009/128/EC of the European Parliament about sustainable use of pesticides and the Royal Decree 1311/2012 that transposes the regulation to the Spanish level. These regulations establish the legal framework that agricultural holdings must adhere to in order to accomplish the general principles of Integrated Pest Management (IPM). The guidelines of IPM give priority to sustainable and eco-friendly pest control techniques, such as biological and physical measures. Nevertheless, the use of pesticides that are selective to natural enemies is sometimes a necessary strategy to implement accurate pest management programs in horticultural protected crops. Therefore, the general objective of this Thesis was to contribute to the improvement of pest management strategies in horticultural crops, by means of the integration of biological, physical and chemical techniques. The first research line of this Thesis was focused on the evaluation of the effects of two aphidophagous predators, Chrysoperla carnea larvae and Adalia bipunctata adults, on the spread of the non-persistently transmitted Cucumber mosaic virus (CMV, Cucumovirus) and the persistently transmitted Cucurbit aphid-borne yellows virus (CABYV, Polerovirus), by the aphid vector Aphis gossypii in a cucumber crop under greenhouse conditions. The CMV transmission rate was generally low, both after 1 and 5 days, due to the limited movement of its aphid vector A. gossypii. Infected plants were mainly located around the central virusinfected source plant, and the percentage of aphid occupation and CMV-infected plants did not differ significantly in absence and presence of natural enemies. The distribution patterns of A. gossypii and CMV were only coincident close to the central plant where insects were released. In the CABYV experiments, the presence of C. carnea larvae and A. bipunctata adults induced significant A. gossypii dispersal after 14 days but not after 7 days. The reduction in the initial aphid population established in the central plant was always higher for C. carnea than for A. bipunctata. Nevertheless, CABYV spread was not significantly modified by the presence of each predator either in the short term (7 days) or in the long term (14 days). Furthermore, the percentage of CABYV-infected plants did not significantly differ when each natural enemy was present in any evaluation period. It is important to evaluate the influence that natural enemies have on pest dynamics and on the spread of viral diseases, but it should be also taken into account the possible effect on the performance of natural enemies when they feed on preys that act as vectors of viruses. Thus, in a second research line developed in the Laboratory of Ecotoxicology, Department of Entomology, of the Universidade Federal de Lavras (UFLA) (Brazil), it was evaluated the performance of Chrysoperla externa under the condition of consuming Myzus persicae acting as vector of Potato leafroll virus (PLRV). The diet composed of PLRV-infected M. persicae significantly increased the length and reduced the survival rate, of the larval period in regard to the other two diets, composed of non-infected M. persicae and Ephestia kuehniella eggs. The lengths of the pupal stage were not significantly different between the aphid diets, but both were significantly shorter than that of E. kuehniella eggs. Neither pupal survival nor reproductive parameters revealed significant differences among the diets. Nevertheless, the adult survival curves during the first 30 days after emergence showed significant differences, reaching at the end of this interval a value of 54% for those C. externa adults fed on PLRVinfected aphids during their larval period. According to the IPM guidelines, one of the physical strategies for the control of pests and diseases in horticultural protected crops is the use of plastic films with photoselective properties that act as ultraviolet (UV) radiation blocking barriers. In this sense, the third research line of the Thesis dealt with the study of the direct and plant-mediated influence of low UV radiation conditions on the performance of the aphid A. gossypii and on the biological parameters of the natural enemy C. carnea, as well as on the cucumber plants where insects were released. The experiments were conducted inside cages under greenhouse conditions, using for the first one healthy cucumber plants, while for the second experiment the cucumber plants were previously infected with CABYV in order to assess the influence of the virus in the same conditions. The low UV radiation conditions (under Térmico Antivirus® plastic film) seemed to exert a direct effect in the early stages of cucumber plants, enhancing their growth, and in an increasing nitrogen content at further developmental stages. The higher UV radiation exposure (under Térmico Blanco® plastic film) in the early stages of the cucumber crop induced the thickening of the adaxial epidermal cell walls and the cuticle of leaves. The use of Térmico Antivirus® plastic film as a photoselective barrier to induce low UV radiation conditions did not modify, in regard to Térmico Blanco® plastic film (used as control), neither the population development of A. gossypii nor the studied biological parameters of the predator C. carnea. In the second experiment, done with CABYV-infected cucumber plants, the incidence of the virus seemed to mask the direct and plant-mediated influence of the different UV radiation conditions. In last term, for the development of IPM strategies it is important to study the potential side effects that pesticides might have on natural enemies. For this reason, in the Thesis were tested the toxicity and sublethal effects (fecundity and fertility) of flonicamid, flubendiamide, metaflumizone, spirotetramat, sulfoxaflor and deltamethrin on the natural enemies C. carnea and A. bipunctata. The side effects of the active ingredients of the insecticides were evaluated with residual contact tests for the larvae and adults of these predators under laboratory conditions. Flonicamid, flubendiamide, metaflumizone and spirotetramat were innocuous to last instar larvae and adults of C. carnea and A. bipunctata. Therefore, these pesticides are promising candidates for being incorporated into IPM programs in combination with these natural enemies for the control of particular greenhouse pests. In contrast, sulfoxaflor was slightly toxic to adults of C. carnea and was highly toxic to last instar larvae of A. bipunctata. For A. bipunctata, sulfoxaflor and deltamethrin were the most damaging compounds. Deltamethrin was also the most toxic compound to larvae and adults of C. carnea. In accordance with this fact, the use of sulfoxaflor and deltamethrin in IPM strategies should be taken into consideration when releasing either of these biological control agents, due to the toxic behavior observed under laboratory conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es bien conocido por todos que la Primera Revolución Industrial, que tuvo su inicio en la segunda mitad del Siglo XVIII, conllevó un aumento del uso de los recursos energéticos que no se ha detenido para llegar a los niveles de desarrollo tecnológico, industrial y de calidad de vida, de los que se dispone en la actualidad. A simple vista podría intuirse que para disponer de un mayor nivel tecnológico, industrial, de confort, etc. sea necesario un mayor consumo de energía primaria. La actual generación de energía está principalmente basada en el procesamiento de los diversos compuestos del carbono (hidrocarburos, gases y productos derivados del petróleo), que son contaminantes y además, se agotan. Desde hace unas pocas décadas, la humanidad ha sido consciente que es necesario generar energía a partir de fuentes de origen renovable, y que además resulten menos contaminantes. Así, en la actualidad, se ha llegado a un estado de desarrollo avanzado para la explotación de diversas fuentes de energías como la eólica, a la vez que se comienza a mirar con realismo la posibilidad de explotación de diversas energías de origen marino. Se considera que las energías renovables procedentes de los océanos que se encuentran más desarrolladas tecnológicamente hablando, sin tener en cuenta la energía eólica fuera costa (offshore), son la denominada energía undimotriz o de las olas y la energía de las corrientes marinas, no necesariamente en este orden. El trabajo propuesto en esta Tesis se centra en este último recurso energético y, aunque no se dispone todavía de ningún dispositivo en fase de explotación comercial, la concepción, diseño y desarrollo de dispositivos para la extracción de energía de las corrientes, y su evolución, han sido relativamente rápidos e importantes en estos últimos años. Existen ya diferentes dispositivos en fase de pruebas con resultados muy prometedores. Aunque los dispositivos actuales se encuentran limitados a la explotación energética en zonas de poca profundidad, los diferentes estudios del recurso indican la necesidad de explotar corrientes marinas a mayores profundidades, para lo que se están desarrollando actualmente dispositivos, cuya evolución en lo que a sistemas de fondeo se refiere, está siendo muy parecida a la que se ha producido en los parques eólicos fuera costa, similar a su vez, a la evolución llevada a cabo en las plataformas oceánicas para la explotación de recursos petrolíferos (denominados oil & gas) que se extraen de profundidades cada vez mayores. Las soluciones tecnológicas que resulten válidas han de ser también económicamente viables, y en la actualidad se requiere todavía reducir costos en todas las fases de instalación, explotación y mantenimiento de estos dispositivos, sea cual sea su profundidad de operación. Uno de los focos de estudio para abaratar los costes de explotación en general, pasa por abaratar y reducir los costes en las maniobras necesarias de inmersión (de la superficie del mar a la profundidad de operación) y emersión (de la profundidad de operación a la superficie del mar) de estos dispositivos, para llevar a cabo tareas de mantenimiento in situ, en el mar, y sin necesidad de buques especializados ni de su transporte a tierra. En esta Tesis se propone, en primer lugar, un método para evaluar el ciclo de vida de diversos dispositivos de aprovechamiento de las corrientes marinas. Se evidencia que el coste de la energía así generada sigue siendo no plenamente competitivo, por lo que se requiere avanzar en el abaratamiento de costes, principalmente en la instalación y en su mantenimiento. Para ello se propone como novedad principal, introducir sistemas de control en lazo cerrado para realizar maniobras de instalación y mantenimiento de forma automática. También se aporta un modelo dinámico original y muy sencillo para dispositivos bajo estos movimientos de emersión/inmersión, a partir del cual se han desarrollado los algoritmos de control para el propósito mencionado, que no es otro sino automatizar en todo lo posible las maniobras completas. Los algoritmos de control propuestos han sido validados mediante simulación. Se proponen trayectorias de referencia de movimiento suaves (smooth) similares a las utilizadas en robótica. Estos movimientos de cambios de profundidad en lazo cerrado, combinados con secuencias de movimientos en bucle abierto para cuando el dispositivo interacciona en la superficie libre, han dado lugar a nuevas maniobras completas de instalación y mantenimiento que se presentan en esta Tesis, diferentes a las actuales. Finalmente, y como justificación de la viabilidad económica del método novedoso aportado, se ha realizado un estudio comparativo de los costes de la tecnología propuesta, frente a la tecnología actual. Este nuevo sistema de maniobras automáticas implica un ciclo de vida diferente para los dispositivos de aprovechamiento de la energía de las corrientes, ciclo que se cuantifica a partir de un dispositivo base que ha sido modificado y adaptado para la nueva tecnología propuesta, demostrando su viabilidad tanto técnica como económica. ABSTRACT It’s well known that the First Industrial Revolution started in the second half of the eighteenth century, carried the increasing of the use of energy resource which have not been stopped until reach the present technology, industrial evolution and daily life quality. On the surface, it can be known intuitively that a higher consumption of primary energy resource is demanded for benefiting from a higher technological industrial and daily life level. Today, the generation of energy is mainly based in the processing of carbon products (hydrocarbons, gases and petroleum products) which are pollutants, and additionally, are depleted. From a few decades ago, the humanity is aware the energy should be obtained from renewable resources, which besides, should be cleaner. So, at the present, a technical develop has been gained to exploit several energy source, as wind energy, and, at the same time, the extraction of the marine energy starts to seem as a reality. The renewable marine energies considered more advanced and technically developed, without keeping in mind, the offshore wind energy, are the wave energy and the tidal current energy, not necessarily in that order. This Thesis is focused in this last energy resource, and, although, any device is under commercial operation, the concept, design and develop of this type of devices to extract the tidal current energy and their evolution has been comparatively fast and important the last years. There are several devices under test with promising results. Even through the current devices are limited to lower depth areas, the several studies of the tidal energy resource suggest the need to exploit the marine current at greater depths to what is being developed devices, where their evolution in the anchoring system is being very similar to the evolution performed in the offshore wind farms, which is at the same time, similar to the evolution in the oil and gas exploitation which are extracted to greatest depths. Viable technical solutions should be also viable economically and nowadays the cost in all phases of the project (installation, maintenance and operation) should be decreased whatever the operation depth is. One focus of study to lower the operation cost is the cost decreasing of immersion manoeuvring operations (from sea surface to the operation depth) and immersion manoeuvring operations (from operation depth to the sea surface), therefore the maintenance operations can be performed on – site, in the sea, and no specialized vessels are required to transport the devices from the sea to shore. In this dissertation, firstly is proposed a method to evaluate the life cycle of the tidal energy current devices. It is proved the energy generated by these devices is not fully competitive; therefore, the cost falling is mainly an objective in the installation and the maintenance operations. For that, it is proposed as main novelty, the using of closed loop control systems to perform the automatic installation and manoeuvring operations. It is also contributed with an original and simple dynamic model and for controlling the immersion/emersion movements of these devices, from which the control algorithms are developed in order to automate as much as possible the complete manoeuvring. The control algorithms proposed has been validated by simulations. Reference paths with smooth movements, similar which are used in robotics, are suggested. These movements to change the depth using closed loop control, combined with the sequences in open loop movements when the device is in free surface, have been development for a new complete manoeuvring to installation and maintenance operations which are advanced in this Thesis and they are different to the present manoeuvrings. Finally and as justification of the economic viability of this original method, a comparative cost study between the technology proposed and the current technology is performed. This new automatic manoeuvring system involves a different life cycle for the tidal energy current devices, cycle that is quantified from a base device which has been modified and adapted for the new proposed technology, showing the technical and economic viability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El cerebro humano es probablemente uno de los sistemas más complejos a los que nos enfrentamos en la actualidad, si bien es también uno de los más fascinantes. Sin embargo, la compresión de cómo el cerebro organiza su actividad para llevar a cabo tareas complejas es un problema plagado de restos y obstáculos. En sus inicios la neuroimagen y la electrofisiología tenían como objetivo la identificación de regiones asociadas a activaciones relacionadas con tareas especificas, o con patrones locales que variaban en el tiempo dada cierta actividad. Sin embargo, actualmente existe un consenso acerca de que la actividad cerebral tiene un carácter temporal multiescala y espacialmente extendido, lo que lleva a considerar el cerebro como una gran red de áreas cerebrales coordinadas, cuyas conexiones funcionales son continuamente creadas y destruidas. Hasta hace poco, el énfasis de los estudios de la actividad cerebral funcional se han centrado en la identidad de los nodos particulares que forman estas redes, y en la caracterización de métricas de conectividad entre ellos: la hipótesis subyacente es que cada nodo, que es una representación mas bien aproximada de una región cerebral dada, ofrece a una única contribución al total de la red. Por tanto, la neuroimagen funcional integra los dos ingredientes básicos de la neuropsicología: la localización de la función cognitiva en módulos cerebrales especializados y el rol de las fibras de conexión en la integración de dichos módulos. Sin embargo, recientemente, la estructura y la función cerebral han empezado a ser investigadas mediante la Ciencia de la Redes, una interpretación mecánico-estadística de una antigua rama de las matemáticas: La teoría de grafos. La Ciencia de las Redes permite dotar a las redes funcionales de una gran cantidad de propiedades cuantitativas (robustez, centralidad, eficiencia, ...), y así enriquecer el conjunto de elementos que describen objetivamente la estructura y la función cerebral a disposición de los neurocientíficos. La conexión entre la Ciencia de las Redes y la Neurociencia ha aportado nuevos puntos de vista en la comprensión de la intrincada anatomía del cerebro, y de cómo las patrones de actividad cerebral se pueden sincronizar para generar las denominadas redes funcionales cerebrales, el principal objeto de estudio de esta Tesis Doctoral. Dentro de este contexto, la complejidad emerge como el puente entre las propiedades topológicas y dinámicas de los sistemas biológicos y, específicamente, en la relación entre la organización y la dinámica de las redes funcionales cerebrales. Esta Tesis Doctoral es, en términos generales, un estudio de cómo la actividad cerebral puede ser entendida como el resultado de una red de un sistema dinámico íntimamente relacionado con los procesos que ocurren en el cerebro. Con este fin, he realizado cinco estudios que tienen en cuenta ambos aspectos de dichas redes funcionales: el topológico y el dinámico. De esta manera, la Tesis está dividida en tres grandes partes: Introducción, Resultados y Discusión. En la primera parte, que comprende los Capítulos 1, 2 y 3, se hace un resumen de los conceptos más importantes de la Ciencia de las Redes relacionados al análisis de imágenes cerebrales. Concretamente, el Capitulo 1 está dedicado a introducir al lector en el mundo de la complejidad, en especial, a la complejidad topológica y dinámica de sistemas acoplados en red. El Capítulo 2 tiene como objetivo desarrollar los fundamentos biológicos, estructurales y funcionales del cerebro, cuando éste es interpretado como una red compleja. En el Capítulo 3, se resumen los objetivos esenciales y tareas que serán desarrolladas a lo largo de la segunda parte de la Tesis. La segunda parte es el núcleo de la Tesis, ya que contiene los resultados obtenidos a lo largo de los últimos cuatro años. Esta parte está dividida en cinco Capítulos, que contienen una versión detallada de las publicaciones llevadas a cabo durante esta Tesis. El Capítulo 4 está relacionado con la topología de las redes funcionales y, específicamente, con la detección y cuantificación de los nodos mas importantes: aquellos denominados “hubs” de la red. En el Capítulo 5 se muestra como las redes funcionales cerebrales pueden ser vistas no como una única red, sino más bien como una red-de-redes donde sus componentes tienen que coexistir en una situación de balance funcional. De esta forma, se investiga cómo los hemisferios cerebrales compiten para adquirir centralidad en la red-de-redes, y cómo esta interacción se mantiene (o no) cuando se introducen fallos deliberadamente en la red funcional. El Capítulo 6 va un paso mas allá al considerar las redes funcionales como sistemas vivos. En este Capítulo se muestra cómo al analizar la evolución de la topología de las redes, en vez de tratarlas como si estas fueran un sistema estático, podemos caracterizar mejor su estructura. Este hecho es especialmente relevante cuando se quiere tratar de encontrar diferencias entre grupos que desempeñan una tarea de memoria, en la que las redes funcionales tienen fuertes fluctuaciones. En el Capítulo 7 defino cómo crear redes parenclíticas a partir de bases de datos de actividad cerebral. Este nuevo tipo de redes, recientemente introducido para estudiar las anormalidades entre grupos de control y grupos anómalos, no ha sido implementado nunca en datos cerebrales y, en este Capítulo explico cómo hacerlo cuando se quiere evaluar la consistencia de la dinámica cerebral. Para concluir esta parte de la Tesis, el Capítulo 8 se centra en la relación entre las propiedades topológicas de los nodos dentro de una red y sus características dinámicas. Como mostraré más adelante, existe una relación entre ellas que revela que la posición de un nodo dentro una red está íntimamente correlacionada con sus propiedades dinámicas. Finalmente, la última parte de esta Tesis Doctoral está compuesta únicamente por el Capítulo 9, el cual contiene las conclusiones y perspectivas futuras que pueden surgir de los trabajos expuestos. En vista de todo lo anterior, espero que esta Tesis aporte una perspectiva complementaria sobre uno de los más extraordinarios sistemas complejos frente a los que nos encontramos: El cerebro humano. ABSTRACT The human brain is probably one of the most complex systems we are facing, thus being a timely and fascinating object of study. Characterizing how the brain organizes its activity to carry out complex tasks is highly non-trivial. While early neuroimaging and electrophysiological studies typically aimed at identifying patches of task-specific activations or local time-varying patterns of activity, there has now been consensus that task-related brain activity has a temporally multiscale, spatially extended character, as networks of coordinated brain areas are continuously formed and destroyed. Up until recently, though, the emphasis of functional brain activity studies has been on the identity of the particular nodes forming these networks, and on the characterization of connectivity metrics between them, the underlying covert hypothesis being that each node, constituting a coarse-grained representation of a given brain region, provides a unique contribution to the whole. Thus, functional neuroimaging initially integrated the two basic ingredients of early neuropsychology: localization of cognitive function into specialized brain modules and the role of connection fibres in the integration of various modules. Lately, brain structure and function have started being investigated using Network Science, a statistical mechanics understanding of an old branch of pure mathematics: graph theory. Network Science allows endowing networks with a great number of quantitative properties, thus vastly enriching the set of objective descriptors of brain structure and function at neuroscientists’ disposal. The link between Network Science and Neuroscience has shed light about how the entangled anatomy of the brain is, and how cortical activations may synchronize to generate the so-called functional brain networks, the principal object under study along this PhD Thesis. Within this context, complexity appears to be the bridge between the topological and dynamical properties of biological systems and, more specifically, the interplay between the organization and dynamics of functional brain networks. This PhD Thesis is, in general terms, a study of how cortical activations can be understood as the output of a network of dynamical systems that are intimately related with the processes occurring in the brain. In order to do that, I performed five studies that encompass both the topological and the dynamical aspects of such functional brain networks. In this way, the Thesis is divided into three major parts: Introduction, Results and Discussion. In the first part, comprising Chapters 1, 2 and 3, I make an overview of the main concepts of Network Science related to the analysis of brain imaging. More specifically, Chapter 1 is devoted to introducing the reader to the world of complexity, specially to the topological and dynamical complexity of networked systems. Chapter 2 aims to develop the biological, topological and functional fundamentals of the brain when it is seen as a complex network. Next, Chapter 3 summarizes the main objectives and tasks that will be developed along the forthcoming Chapters. The second part of the Thesis is, in turn, its core, since it contains the results obtained along these last four years. This part is divided into five Chapters, containing a detailed version of the publications carried out during the Thesis. Chapter 4 is related to the topology of functional networks and, more specifically, to the detection and quantification of the leading nodes of the network: the hubs. In Chapter 5 I will show that functional brain networks can be viewed not as a single network, but as a network-of-networks, where its components have to co-exist in a trade-off situation. In this way, I investigate how the brain hemispheres compete for acquiring the centrality of the network-of-networks and how this interplay is maintained (or not) when failures are introduced in the functional network. Chapter 6 goes one step beyond by considering functional networks as living systems. In this Chapter I show how analyzing the evolution of the network topology instead of treating it as a static system allows to better characterize functional networks. This fact is especially relevant when trying to find differences between groups performing certain memory tasks, where functional networks have strong fluctuations. In Chapter 7 I define how to create parenclitic networks from brain imaging datasets. This new kind of networks, recently introduced to study abnormalities between control and anomalous groups, have not been implemented with brain datasets and I explain in this Chapter how to do it when evaluating the consistency of brain dynamics. To conclude with this part of the Thesis, Chapter 8 is devoted to the interplay between the topological properties of the nodes within a network and their dynamical features. As I will show, there is an interplay between them which reveals that the position of a node in a network is intimately related with its dynamical properties. Finally, the last part of this PhD Thesis is composed only by Chapter 9, which contains the conclusions and future perspectives that may arise from the exposed results. In view of all, I hope that reading this Thesis will give a complementary perspective of one of the most extraordinary complex systems: The human brain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de esta Tesis es presentar un método eficiente para la evaluación de sistemas multi-cuerpo con elementos flexibles con pequeñas deformaciones, basado en métodos topológicos para la simulación de sistemas tan complejos como los que se utilizan en la práctica y en tiempo real o próximo al real. Se ha puesto un especial énfasis en la resolución eficiente de aquellos aspectos que conllevan mayor coste computacional, tales como la evaluación de las ecuaciones dinámicas y el cálculo de los términos de inercia. Las ecuaciones dinámicas se establecen en función de las variables independientes del sistema, y la integración de las mismas se realiza mediante formulaciones implícitas de index-3. Esta Tesis se articula en seis Capítulos. En el Capítulo 1 se realiza una revisión bibliográfica de la simulación de sistemas flexibles y los métodos más relevantes de integración de las ecuaciones diferenciales del movimiento. Asimismo, se presentan los objetivos de esta Tesis. En el Capítulo 2 se presenta un método semi-recursivo para la evaluación de las ecuaciones de los sistemas multi-cuerpo con elementos flexibles basado en formulaciones topológicas y síntesis modal. Esta Tesis determina la posición de cada punto del cuerpo flexible en función de un sistema de referencia flotante que se mueve con dicho cuerpo y de las amplitudes de ciertos modos de deformación calculados a partir de un mallado obtenido mediante el Método de Elementos Finitos. Se presta especial atención en las condiciones de contorno que se han de tener en cuenta a la hora de establecer las variables que definen la deformación del cuerpo flexible. El Capítulo 3 se centra en la evaluación de los términos de inercia de los sistemas flexibles que generalmente conllevan un alto coste computacional. Se presenta un método que permite el cálculo de dichos términos basado en el uso de 24 matrices constantes que pueden ser calculadas previamente al proceso de integración. Estas matrices permiten evaluar la matriz de masas y el vector de fuerzas de inercia dependientes de la velocidad sin que sea necesario evaluar la posición deformada de todos los puntos del cuerpo flexible. Se realiza un análisis pormenorizado de dichas matrices con el objetivo de optimizar su cálculo estableciendo aproximaciones que permitan reducir el número de dichos términos y optimizar aún más su evaluación. Se analizan dos posibles simplificaciones: la primera utiliza una discretización no-consistente basada en elementos finitos en los que se definen únicamente los desplazamientos axiales de los nodos; en la segunda propuesta se hace uso de una matriz de masas concentradas (Lumped Mass). Basándose en la formulación presentada, el Capítulo 4 aborda la integración eficiente de las ecuaciones dinámicas. Se presenta un método iterativo para la integración con fórmulas de index-3 basado en la proyección de las ecuaciones dinámicas según las variables independientes del sistema multi-cuerpo. El cálculo del residuo del sistema de ecuaciones no lineales que se ha de resolver de modo iterativo se realiza mediante un proceso recursivo muy eficiente que aprovecha la estructura topológica del sistema. Se analizan tres formas de evaluar la matriz tangente del citado sistema no lineal: evaluación aproximada, numérica y recursiva. El método de integración presentado permite el uso de distintas fórmulas. En esta Tesis se analizan la Regla Trapezoidal, la fórmula BDF de segundo orden y un método híbrido TR-BDF2. Para este último caso se presenta un algoritmo de paso variable. En el Capítulo 5 plantea la implementación del método propuesto en un programa general de simulación de mecanismos que permita la resolución de cualquier sistema multi-cuerpo definiéndolo mediante un fichero de datos. La implementación de este programa se ha realizado tanto en C++ como en Java. Se muestran los resultados de las formulaciones presentadas en esta Tesis mediante la simulación de cuatro ejemplos de distinta complejidad. Mediante análisis concretos se comparan la formulación presentada con otras existentes. También se analiza el efecto del lenguaje de programación utilizado en la implementación y los efectos de las posibles simplificaciones planteadas. Por último, el Capítulo 6 resume las principales conclusiones alcanzadas en la Tesis y las futuras líneas de investigación que con ella se abren. ABSTRACT This Thesis presents an efficient method for solving the forward dynamics of a multi-body sys-tem formed by rigid and flexible bodies with small strains for real-time simulation of real-life models. It is based on topological formulations. The presented work focuses on the efficient solution of the most time-consuming tasks of the simulation process, such as the numerical integration of the motion differential equations and in particular the evaluation of the inertia terms corresponding to the flexible bodies. The dynamic equations are formulated in terms of independent variables of the muti-body system, and they are integrated by means of implicit index-3 formulae. The Thesis is arranged in six chapters. Chapter 1 presents a review of the most relevant and recent contributions related to the modelization of flexible multi-body systems and the integration of the corresponding dynamic equations. The main objectives of the Thesis are also presented in detail. Chapter 2 presents a semi-recursive method for solving the equations of a multi-body system with flexible bodies based on topological formulations and modal synthesis. This Thesis uses the floating frame approach and the modal amplitudes to define the position of any point at the flexible body. These modal deformed shapes are obtained by means of the Finite Element Method. Particular attention has been taken to the boundary conditions used to define the deformation of the flexible bodies. Chapter 3 focuses on the evaluation of the inertia terms, which is usually a very time-consuming task. A new method based on the use of 24 constant matrices is presented. These matrices are evaluated during the set-up step, before the integration process. They allow the calculation of the inertia terms in terms of the position and orientation of the local coordinate system and the deformation variables, and there is no need to evaluate the position and velocities of all the nodes of the FEM mesh. A deep analysis of the inertia terms is performed in order to optimize the evaluation process, reducing both the terms used and the number of arithmetic operations. Two possible simplifications are presented: the first one uses a non-consistent approach in order to define the inertia terms respect to the Cartesian coordinates of the FEM mesh, rejecting those corresponding to the angular rotations; the second approach makes use of lumped mass matrices. Based on the previously presented formulation, Chapter 4 is focused on the numerical integration of the motion differential equations. A new predictor-corrector method based on index-3 formulae and on the use of multi-body independent variables is presented. The evaluation of the dynamic equations in a new time step needs the solution of a set on nonlinear equations by a Newton-Raphson iterative process. The computation of the corresponding residual vector is performed efficiently by taking advantage of the system’s topological structure. Three methods to compute the tangent matrix are presented: an approximated evaluation that considers only the most relevant terms, a numerical approach based on finite differences and a recursive method that uses the topological structure. The method presented for integrating the dynamic equations can use a variety of integration formulae. This Thesis analyses the use of the trapezoidal rule, the 2nd order BDF formula and the hybrid TR-BDF2 method. A variable-time step strategy is presented for the last one. Chapter 5 describes the implementation of the proposed method in a general purpose pro-gram for solving any multibody defined by a data file. This program is implemented both in C++ and Java. Four examples are used to check the validity of the formulation and to compare this method with other methods commonly used to solve the dynamic equations of multi-body systems containing flexible bodies. The efficiency of the programming methodology used and the effect of the possible simplifications proposed are also analyzed. Chapter 6 summarizes the main Conclusions obtained in this Thesis and the new lines of research that have been opened.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio de la implementación de prácticas de reporte de sostenibilidad (o RSC) en las empresas europeas. Estas prácticas han adquirido una relevancia notable a lo largo de los últimos 20 años, siendo utilizadas actualmente por el 93% de las 250 mayores empresas a nivel mundial y por más de 8000 organizaciones en total (de acuerdo a la base de datos de Global Reporting Initiative). Hasta la fecha, el considerable volumen de estudios existentes sobre las prácticas de reporte a nivel corporativo ha permitido caracterizar la influencia de una serie de factores externos (como la presión social o el comportamiento de organizaciones similares) a la hora de adoptar estas prácticas. Sin embargo, se dispone de mucho menos conocimiento respecto a las características internas que influyen en esta decisión, así como a la influencia de ambas causas (externas e internas) en la manera que el reporte se implementa una vez adoptado. Por tanto, esta tesis se centra en abordar estos dos aspectos. Para ello, se ha generado un marco conceptual que permite integrar ambas explicaciones para la adopción del reporte, combinando teorías institucionales (centradas en la influencia de fuerzas externas) y teorías organizativas (centradas en la eficiencia de una práctica a nivel de compañía). De manera análoga al ámbito de la RSC, en el cual existe una diversidad de contribuciones que reconocen la importancia de los factores externos y los factores internos (estratégicos) a la hora de impulsar estas prácticas, el marco conceptual generado tiene por objetivo propiciar un entendimiento más completo de las prácticas de reporte a nivel de compañía. De forma adicional al marco conceptual se han formulado también una serie de hipótesis específicas que relacionan la existencia de determinantes externos e internos y las distintas estrategias de implementación del reporte en cada organización.