306 resultados para Procesado de señales
Resumo:
El desarrollo de sensores está ganando cada vez mayor importancia debido a la concienciación ciudadana sobre el medio ambiente haciendo que su desarrollo sea muy elevado en todas las disciplinas, entre las que cabe destacar, la medicina, la biología y la química. A pesar de la existencia de estos dispositivos, este área está aún por mejorar, ya que muchos de los materiales propuestos hasta el momento e incluso los ya comercializados muestran importantes carencias de funcionamiento, eficiencia e integrabilidad entre otros. Para la mejora de estos dispositivos, se han propuesto diversas aproximaciones basadas en nanosistemas. Quizá, uno de las más prometedoras son las nanoestructuras de punto cuántico, y en particular los semiconductores III-V basados en la consolidada tecnología de los arseniuros, las cuáles ofrecen excelentes propiedades para su uso como sensores. Además, estudios recientes demuestran su gran carácter sensitivo al medio ambiente, la posibilidad de funcionalizar la superficie para la fabricación de sensores interdisciplinares y posibilididad de mejorar notablemente su eficiencia. A lo largo de esta tesis, nos centramos en la investigación de SQD de In0.5Ga0.5As sobre substratos de GaAs(001) para el desarrollo de sensores de humedad. La tesis abarca desde el diseño, crecimiento y caracterización de las muestras hasta la el posterior procesado y caracterización de los dispositivos finales. La optimización de los parámetros de crecimiento es fundamental para conseguir una nanoestructura con las propiedades operacionales idóneas para un fin determinado. Como es bien sabido en la literatura, los parámetros de crecimiento (temperatura de crecimiento, relación de flujos del elemento del grupo V y del grupo I II (V/III), velocidad de crecimiento y tratamiento térmico después de la formación de la capa activa) afectan directamente a las propiedades estructurales, y por tanto, operacionales de los puntos cuánticos (QD). En esta tesis, se realiza un estudio de las condiciones de crecimiento para el uso de In0.5Ga0.5As SQDs como sensores. Para los parámetros relacionados con la temperatura de crecimiento de los QDs y la relación de flujos V / I I I se utilizan los estudios previamente realizados por el grupo. Mientras que este estudio se centrará en la importancia de la velocidad de crecimiento y en el tratamiento térmico justo después de la nucleación de los QDs. Para ello, se establece la temperatura de creciemiento de los QDs en 430°C y la relación de flujos V/III en 20. Como resultado, los valores más adecuados que se obtienen para la velocidad de crecimiento y el tratamiento térmico posterior a la formación de los puntos son, respectivamente, 0.07ML/s y la realización de una bajada y subida brusca de la temperatura del substrato de 100°C con respecto a la temperatura de crecimiento de los QDs. El crecimiento a una velocidad lo suficientemente alta que permita la migración de los átomos por la superficie, pero a su vez lo suficientemente baja para que se lleve a cabo la nucleación de los QDs; en combinación con el tratamiento brusco de temperatura que hace que se conserve la forma y composición de los QDs, da lugar a unos SQDs con un alto grado de homogeneidad y alta densidad superficial. Además, la caracterización posterior indica que estas nanoestructuras de gran calidad cristalina presentan unas propiedades ópticas excelentes incluso a temperatura ambiente. Una de las características por la cual los SQD de Ino.5Gao.5As se consideran candidatos prometedores para el desarrollo de sensores es el papel decisivo que juega la superficie por el mero hecho de estar en contacto directo con las partículas del ambiente y, por tanto, por ser capaces de interactuar con sus moléculas. Así pues, con el fin de demostrar la idoneidad de este sistema para dicha finalidad, se evalúa el impacto ambiental en las propiedades ópticas y eléctricas de las muestras. En un primer lugar, se analiza el efecto que tiene el medio en las propiedades ópticas. Para dicha evaluación se compara la variación de las propiedades de emisión de una capa de puntos enterrada y una superficial en distintas condiciones externas. El resultado que se obtiene es muy claro, los puntos enterrados no experimentan un cambio óptico apreciable cuando se varían las condiciones del entorno; mientras que, la emisión de los SQDs se modifica significativamente con las condiciones del medio. Por una parte, la intensidad de emisión de los puntos superficiales desaparece en condiciones de vacío y decrece notablemente en atmósferas secas de gases puros (N2, O2). Por otra parte, la fotoluminiscencia se conserva en ambientes húmedos. Adicionalmente, se observa que la anchura a media altura y la longitud de onda de emisión no se ven afectadas por los cambios en el medio, lo que indica, que las propiedades estructurales de los puntos se conservan al variar la atmósfera. Estos resultados apuntan directamente a los procesos que tienen lugar en la superficie entre estados confinados y superficiales como responsables principales de este comportamiento. Así mismo, se ha llevado a cabo un análisis más detallado de la influencia de la calidad y composición de la atmósfera en las propiedades ópticas de los puntos cuánticos superficiales. Para ello, se utilizan distintas sustancias con diferente polaridad, composición atómica y masa molecular. Como resultado se observa que las moléculas de menor polaridad y más pesadas causan una mayor variación en la intensidad de emisión. Además, se demuestra que el oxígeno juega un papel decisivo en las propiedades ópticas. En presencia de moléculas que contienen oxígeno, la intensidad de fotoluminiscencia disminuye menos que en atmósferas constituidas por especies que no contienen oxígeno. Las emisión que se observa respecto a la señal en aire es del 90% y del 77%, respectivamente, en atmósferas con presencia o ausencia de moléculas de oxígeno. El deterioro de la señal de emisión se atribuye a la presencia de defectos, enlaces insaturados y, en general, estados localizados en la superficie. Estos estados actúan como centros de recombinación no radiativa y, consecuentemente, se produce un empeoramiento de las propiedades ópticas de los SQDs. Por tanto, la eliminación o reducción de la densidad de estos estados superficiales haría posible una mejora de la intensidad de emisión. De estos experimentos de fotoluminiscencia, se deduce que las interacciones entre las moléculas presentes en la atmósfera y la superficie de la muestra modifican la superficie. Esta alteración superficial se traduce en un cambio significativo en las propiedades de emisión. Este comportamiento se atribuye a la posible adsorción de moléculas sobre la superficie pasivando los centros no radiativos, y como consecuencia, mejorando las propiedades ópticas. Además, los resultados demuestran que las moléculas que contienen oxígeno con mayor polaridad y más ligeras son adsorbidas con mayor facilidad, lo que hace que la intensidad óptica sufra variaciones despreciables con respecto a la emisión en aire. Con el fin de desarrollar sensores, las muestras se procesan y los dispositivos se caracterizan eléctricamente. El procesado consiste en dos contactos cuadrados de una aleación de Ti/Au. Durante el procesado, lo más importante a tener en cuenta es no realizar ningún ataque o limpieza que pueda dañar la superficie y deteriorar las propiedades de las nanostructuras. En este apartado, se realiza un análisis completo de una serie de tres muestras: GaAs (bulk), un pozo cuántico superficial (SQW) de Ino.5Gao.5As y SQDs de Ino.5Gao.5As. Para ello, a cada una de las muestras se le realizan medidas de I-V en distintas condiciones ambientales. En primer lugar, siguiendo los resultados obtenidos ópticamente, se lleva a cabo una comparación de la respuesta eléctrica en vacío y aire. A pesar de que todas las muestras presentan un carácter más resistivo en vacío que en aire, se observa una mayor influencia sobre la muestra de SQD. En vacío, la resistencia de los SQDs decrece un 99% respecto de su valor en aire, mientras que la variación de la muestras de GaAs e Ino.5Gao.5As SQW muestran una reducción, respectivamente, del 31% y del 20%. En segundo lugar, se realiza una evaluación aproximada del posible efecto de la humedad en la resistencia superficial de las muestras mediante la exhalación humana. Como resultado se obtiene, que tras la exhalación, la resistencia disminuye bruscamente y recupera su valor inicial cuando dicho proceso concluye. Este resultado preliminar indica que la humedad es un factor crítico en las propiedades eléctricas de los puntos cuánticos superficiales. Para la determinación del papel de la humedad en la respuesta eléctrica, se somete a las muestras de SQD y SQW a ambientes con humedad relativa (RH, de la siglas del inglés) controlada y se analiza el efecto sobre la conductividad superficial. Tras la variación de la RH desde 0% hasta el 70%, se observa que la muestra SQW no cambia su comportamiento eléctrico al variar la humedad del ambiente. Sin embargo, la respuesta de la muestra SQD define dos regiones bien diferenciadas, una de alta sensibilidad para valores por debajo del 50% de RH, en la que la resistencia disminuye hasta en un orden de magnitud y otra, de baja sensibilidad (>50%), donde el cambio de la resistencia es menor. Este resultado resalta la especial relevancia no sólo de la composición sino también de la morfología de la nanostructura superficial en el carácter sensitivo de la muestra. Por último, se analiza la influencia de la iluminación en la sensibilidad de la muestra. Nuevamente, se somete a las muestras SQD y SQW a una irradiación de luz de distinta energía y potencia a la vez que se varía controladamente la humedad ambiental. Una vez más, se observa que la muestra SQW no presenta ninguna variación apreciable con las alteraciones del entorno. Su resistencia superficial permanece prácticamente inalterable tanto al modificar la potencia de la luz incidente como al variar la energía de la irradiación. Por el contrario, en la muestra de SQD se obtiene una reducción la resistencia superficial de un orden de magnitud al pasar de condiciones de oscuridad a iluminación. Con respecto a la potencia y energía de la luz incidente, se observa que a pesar de que la muestra no experimenta variaciones notables con la potencia de la irradiación, esta sufre cambios significativos con la energía de la luz incidente. Cuando se ilumina con energías por encima de la energía de la banda prohibida (gap) del GaAs (Eg ~1.42 eV ) se produce una reducción de la resistencia de un orden de magnitud en atmósferas húmedas, mientras que en atmósferas secas la conductividad superficial permanece prácticamente constante. Sin embargo, al inicidir con luz de energía menor que Eg, el efecto que se produce en la respuesta eléctrica es despreciable. Esto se atribuye principalmente a la densidad de portadores fotoactivados durante la irradiación. El volumen de portadores excita dos depende de la energía de la luz incidente. De este modo, cuando la luz que incide tiene energía menor que el gap, el volumen de portadores generados es pequeño y no contribuye a la conductividad superficial. Por el contrario, cuando la energía de la luz incidente es alta (Eg), el volumen de portadores activados es elevado y éstos contribuyen significantemente a la conductividad superficial. La combinación de ambos agentes, luz y humedad, favorece el proceso de adsorción de moléculas y, por tanto, contribuye a la reducción de la densidad de estados superficiales, dando lugar a una modificación de la estructura electrónica y consecuentemente favoreciendo o dificultando el transporte de portadores. ABSTRACT Uncapped three-dimensional (3D) nanostructures have been generally grown to assess their structural quality. However, the tremendous growing importance of the impact of the environment on life has become such nanosystems in very promising candidates for the development of sensing devices. Their direct exposure to changes in the local surrounding may influence their physical properties being a perfect sign of the atmosphere quality. The goal of this thesis is the research of Ino.5Gao.5As surface quantum dots (SQDs) on GaAs(001), covering from their growth to device fabrication, for sensing applications. The achievement of this goal relies on the design, growth and sample characterization, along with device fabrication and characterization. The first issue of the thesis is devoted to analyze the main growth parameters affecting the physical properties of the Ino.5Gao.5As SQDs. It is well known that the growing conditions (growth temperature , deposition rate, V/III flux ratio and treatment after active layer growth) directly affect the physical properties of the epilayer. In this part, taking advantage of the previous results in the group regarding Ino.5Gao.5As QD growth temperature and V/III ratio, the effect of the growth rate and the temperature treatment after QDs growth nucleation is evaluated. Setting the QDs growth temperature at 430°C and the V/III flux ratio to ~20, it is found that the most appropriate conditions rely on growing the QDs at 0.07ML/s and just after QD nucleation, rapidly dropping and again raising 100°C the substrate temperature with respect to the temperature of QD growth. The combination of growing at a fast enough growth rate to promote molecule migration but sufficiently slow to allow QD nucleation, together with the sharp variation of the temperature preserving their shape and composition yield to high density, homogeneous Ino.5Gao.5As SQDs. Besides, it is also demonstrated that this high quality SQDs show excellent optical properties even at room temperature (RT). One of the characteristics by which In0.5Ga0.5As/GaAs SQDs are considered promising candidates for sensing applications is the crucial role that surface plays when interacting with the gases constituting the atmosphere. Therefore, in an attempt to develop sensing devices, the influence of the environment on the physical properties of the samples is evaluated. By comparing the resulting photoluminescence (PL) of SQDs with buried QDs (BQDs), it is found that BQDs do not exhibit any significant variation when changing the environmental conditions whereas, the external conditions greatly act on the SQDs optical properties. On one hand, it is evidenced that PL intensity of SQDs sharply quenches under vacuum and clearly decreases under dry-pure gases atmospheres (N2, O2). On the other hand, it is shown that, in water containing atmospheres, the SQDs PL intensity is maintained with respect to that in air. Moreover, it is found that neither the full width at half maximun nor the emission wavelength manifest any noticeable change indicating that the QDs are not structurally altered by the external atmosphere. These results decisively point to the processes taking place at the surface such as coupling between confined and surface states, to be responsible of this extraordinary behavior. A further analysis of the impact of the atmosphere composition on the optical characteristics is conducted. A sample containing one uncapped In0.5Ga0.5As QDs layer is exposed to different environments. Several solvents presenting different polarity, atomic composition and molecular mass, are used to change the atmosphere composition. It is revealed that low polarity and heavy molecules cause a greater variation on the PL intensity. Besides, oxygen is demonstrated to play a decisive role on the PL response. Results indicate that in presence of oxygen-containing molecules, the PL intensity experiments a less reduction than that suffered in presence of nonoxygen-containing molecules, 90% compared to 77% signal respect to the emission in air. In agreement with these results, it is demonstrated that high polarity and lighter molecules containing oxygen are more easily adsorbed, and consequently, PL intensity is less affected. The presence of defects, unsaturated bonds and in general localized states in the surface are proposed to act as nonradiative recombination centers deteriorating the PL emission of the sample. Therefore, suppression or reduction of the density of such states may lead to an increase or, at least, conservation of the PL signal. This research denotes that the interaction between sample surface and molecules in the atmosphere modifies the surface characteristics altering thus the optical properties. This is attributed to the likely adsoption of some molecules onto the surface passivating the nonradiative recombination centers, and consequently, not deteriorating the PL emission. Aiming for sensors development, samples are processed and electrically characterized under different external conditions. Samples are processed with two square (Ti/Au) contacts. During the processing, especial attention must be paid to the surface treatment. Any process that may damage the surface such as plasma etching or annealing must be avoided to preserve the features of the surface nanostructures. A set of three samples: a GaAs (bulk), In0.5Ga0.5As SQDs and In0.5Ga0.5As surface quantum well (SQW) are subjected to a throughout evaluation. I-V characteristics are measured following the results from the optical characterization. Firstly, the three samples are exposed to vacuum and air. Despite the three samples exhibit a more resistive character in vacuum than in air, it is revealed a much more clear influence of the pressure atmosphere in the SQDs sample. The sheet resistance (Rsh) of SQDs decreases a 99% from its response value under vacuum to its value in air, whereas Rsh of GaAs and In0.5Ga0.5As SQW reduces its value a 31% and a 20%, respectively. Secondly, a rough analysis of the effect of the human breath on the electrical response evidences the enormous influence of moisture (human breath is composed by several components but the one that overwhelms all the rest is the high concentration of water vapor) on the I-V characteristics. Following this result, In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW are subjected to different controlled relative humidity (RH) environments (from 0% to 70%) and electrically characterized. It is found that SQW shows a nearly negligible Rsh variation when increasing the RH in the surroundings. However, the response of SQDs to changes in the RH defines two regions. Below 50%, high sensitive zone, Rsh of SQD decreases by more than one order of magnitude, while above 50% the dependence of Rsh on the RH becomes weaker. These results remark the role of the surface and denote the existence of a finite number of surface states. Nevertheless, most significantly, they highlight the importance not only of the material but also of the morphology. Finally, the impact of the illumination is determined by means of irradiating the In0.5Ga0.5As SQDs and In0.5Ga0.5As SQW samples with different energy and power sources. Once again, SQW does not exhibit any correlation between the surface conductivity and the external conditions. Rsh remains nearly unalterable independently of the energy and power of the incident light. Conversely, Rsh of SQD experiences a decay of one order of magnitude from dark-to-photo conditions. This is attributed to the less density of surface states of SQW compared to that of SQDs. Additionally, a different response of Rsh of SQD with the energy of the impinging light is found. Illuminating with high energy light results in a Rsh reduction of one order of mag nitude under humid atmospheres, whereas it remains nearly unchanged under dry environments. On the contrary, light with energy below the bulk energy bandgap (Eg), shows a negligible effect on the electrical properties regardless the local moisture. This is related to the density of photocarriers generated while lighting up. Illuminating with excitation energy below Eg affects a small absorption volume and thus, a low density of photocarriers may be activated leading to an insignificant contribution to the conductivity. Nonetheless, irradiating with energy above the Eg can excite a high density of photocarriers and greatly improve the surface conductivity. These results demonstrate that both illumination and humidity are therefore needed for sensing. The combination of these two agents improves the surface passivation by means of molecule adsorption reducing the density of surface states, thus modifying the electronic structures, and consequently, promoting the carrier motion.
Descripción del horizonte acústico mediante métodos de evaluación subjetiva en la catedral de Toledo
Resumo:
Se tiene evidencia de que en el pasado, en las catedrales, se realizaban simultáneamente diferentes actividades. El proyecto trata de definir las áreas de la Catedral de Toledo en las cuales se considera escucha aceptable, cuando se están produciendo varias actividades simultáneamente a partir de un test de escucha de evaluación subjetiva. Para ello, se ha planteado una situación con tres fuentes sonoras situadas en el trascoro y en dos capillas. A partir de un modelo acústico diseñado en Odeon se han obtenido varias auralizaciones, con las señales procedentes de las tres fuentes, que han sido sometidas al test. Con el fin de crear un entorno que facilite la realización del mismo, tanto a los sujetos que lo realicen, como el tratamiento posterior de los datos obtenidos, se ha creado una herramienta desarrollada en Matlab. Se trata de una interfaz gráfica que permite escuchar las distintas auralizaciones, así como los sonidos procedentes de las distintas fuentes y recoge los juicios de los sujetos sometidos al test en un archivo Excel. Una vez recogidos los datos de los participantes se ha realizado un tratamiento estadístico de los mismos a fin de obtener resultados a cerca del horizonte acústico en la Catedral de Toledo, para la situación planteada. ABSTRACT. We have evidence from the old times that cathedrals were used to host different activities at the same time. This project aims to define the areas of the Cathedral of Toledo that have an acceptable listening level while several activities are carried out simultaneously, by performing subjective listening evaluation test. To achieve the objective, three sound sources are located inside the Cathedral, one behind the choir and two in the chapels. Several auralizations have been obtained, with the signals from the three test sources, by using an acoustic model designed with Odeon. In order to create an environment that facilitates the realization of the listening tests and the post-processing of the data obtained, a tool has been developed in Matlab. It has a graphical interface that allows the subject to listen to different auralizations, as well as the sounds from the different sources, and then collect the results of each test in an excel file. Once the data from the participants is collected, a statistical processing is performed in order to get the results for the acoustic horizon of the Cathedral of Toledo for the aforementioned setup.
Resumo:
Este trabajo tiene como objeto la evaluación subjetiva de la diferenciación entre señales auralizadas con respuestas impulsivas simuladas y con respuestas impulsivas medidas en diferentes recintos. Para ello, se ha desarrollado una herramienta software que genera las auralizaciones correspondientes, proporciona una interfaz de usuario para la realización de un test subjetivo de escucha y almacena los resultados de dicho test. Se presentan los resultados de un test de escucha realizado a 58 oyentes, utilizando diferentes señales de prueba, a partir de las respuestas impulsivas simuladas y medidas en seis recintos con características acústicas distintas. ABSTRACT. This work aims the subjective assessment of the differentiation between auralization signals with impulse responses simulated and impulse responses measured at different rooms. To this end, we have developed a software tool that generates the corresponding auralizations, provides a user interface to perform a subjective listening test and stores the results of the test. In this project we present the results of a listening test performed for 58 listeners, using different test signals from the impulse responses measured and simulated in six rooms with different acoustic characteristics.
Resumo:
La fermentación de las bayas de café se considera una et apa crítica en el procesado del café debido a su impacto en la calidad final del producto. La temperatura es una de las principales variables de control que puede ser utilizada para predecir el final del proceso, teniendo en cuenta que varios autores indican que el control de esta etapa es fundamental para evitar la mala calidad de la be bida final. En la práctica, la fermentación es el paso menos controlado del proceso, haciendo que los beneficiaderos operen lejos de sus condiciones óptimas en términos de costes de operación (es decir, elevados consumos de energía y agua) y de calidad del producto final. El objetivo de este trabajo es caracterizar los gradientes de temperatura que se dan en los tanques de fermentación mediante una red multi-distribuida de sensores autónomos, inalámbricos y de bajo coste (registradores de temperatura del tipo RFID, identificadores de radiofrecuencia semipasivos modelo TurboTag®).Para ello se utilizan dos metodologías: la interpolación espacial en coordenadas polares y los diagramas de espacio de fase. Se supervisaron dos fermentaciones reales de café, en El Cauca (Colombia), mediante sensores sumergidos directamente en la masa en fermentación. Los fermentadores eran tanques de plástico cubiertos, uno de ellos colocado en el interior de un almacén, permaneciendo el otro a la intemperie. El rango de variación máximo de temperatura en los tanques fue de 4,5ºC. La interpolación espacial mostró, incluso en el fermentador bajo las condiciones menos desfavorables en el interior del almacén, un gradiente radial de temperatura instantáneo de 0,1 °C/cm desde el centro hasta el perímetro del tanque y un gradiente vertical de temperatura de 0,25 °C/cm para sensores con coordenadas polares iguales. La combinación de ambas metodologías permitió la identificación consistente de los puntos calientes y fríos de ambas fermentaciones.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
Las NADPH oxidasas de plantas, denominadas “respiratory burst oxidase homologues” (RBOHs), producen especies reactivas del oxígeno (ROS) que median un amplio rango de funciones. En la célula vegetal, el ajuste preciso de la producción de ROS aporta la especificidad de señal para generar una respuesta apropiada ante las amenazas ambientales. RbohD y RbohF, dos de los diez genes Rboh de Arabidopsis, son pleiotrópicos y median diversos procesos fisiológicos en respuesta a patógenos. El control espacio-temporal de la expresión de los genes RbohD y RbohF podría ser un aspecto crítico para determinar la multiplicidad de funciones de estas oxidasas. Por ello, generamos líneas transgénicas de Arabidopsis con fusiones de los promoters de RbohD y RbohF a los genes delatores de la B-glucuronidasa y la luciferasa. Estas líneas fueron empleadas para revelar el patrón de expresión diferencial de RbohD y RbohF durante la respuesta inmune de Arabidopsis a la bacteria patógena Pseudomonas syringae pv. tomato DC3000, el hongo necrótrofo Plectosphaerella cucumerina y en respuesta a señales relacionadas con la respuesta inmune. Nuestros experimentos revelan un patrón de expresión diferencial de los promotores de RbohD y RbohF durante el desarrollo de la planta y en la respuesta inmune de Arabidopsis. Además hemos puesto de manifiesto que existe una correlación entre el nivel de actividad de los promotores de RbohD y RbohF con la acumulación de ROS y el nivel de muerte celular en respuesta a patógenos. La expression de RbohD y RbohF también es modulada de manera diferencial en respuesta a patrones moleculares asociados a patógenos (PAMPs) y por ácido abscísico (ABA). Cabe destacar que, mediante una estrategia de intercambio de promotores, hemos revelado que la región promotora de RbohD, es necesaria para dirigir la producción de ROS en respuesta a P. cucumerina. Adicionalmente, la activación del promotor de RbohD en respuesta al aislado de P. cucumerina no adaptado a Arabidopsis 2127, nos llevó a realizar ensayos de susceptibilidad con el doble mutante rbohD rbohF que han revelado un papel desconocido de estas oxidasas en resistencia no-huesped. La interacción entre la señalización dependiente de las RBOHs y otros componentes de la respuesta inmune de plantas podría explicar también las distintas funciones que median estas oxidasas en relación con la respuesta inmune. Entre la gran cantidad de señales coordinadas con la actividad de las RBOHs, existen evidencias genéticas y farmacológicas que indican que las proteínas G heterotriméricas están implicadas en algunas de las rutas de señalización mediadas por ROS derivadas de los RBOHs en respuesta a señales ambientales. Por ello hemos estudiado la relación entre estas RBOH-NADPH oxidasas y AGB1, la subunidad β de las proteínas G heterotriméricas en la respuesta inmune de Arabidopsis. Análisis de epistasis indican que las proteínas G heterotriméricas están implicadas en distintas rutas de señalización en defensa mediadas por las RBOHs. Nuestros resultados ilustran la relación compleja entre la señalización mediada por las RBOHs y las proteínas G heterotriméricas, que varía en función de la interacción planta-patógeno analizada. Además, hemos explorado la posible asociación entre AGB1 con RBOHD y RBOHF en eventos tempranos de la respuesta immune. Cabe señalar que experimentos de coímmunoprecipitación apuntan a una posible asociación entre AGB1 y la kinasa citoplasmática reguladora de RBOHD, BIK1. Esto indica un posible mecanismo de control de la función de esta NADPH oxidase por AGB1. En conjunto, estos datos aportan nuevas perspectivas sobre cómo, a través del control transcripcional o mediante la interacción con las proteínas G heterotriméricas, las NADPH oxidases de plantas median la producción de ROS y la señalización por ROS en la respuesta inmune. Nuestro trabajo ejemplifica cómo la regulación diferencial de dos miembros de una familia multigénica, les permite realizar distintas funciones fisiológicas especializadas usando un mismo mecanismo enzimático. ABSTRACT The plant NADPH oxidases, termed respiratory burst oxidase homologues (RBOHs), produce reactive oxygen species (ROS) which mediate a wide range of functions. Fine tuning this ROS production provides the signaling specificity to the plant cell to produce the appropriate response to environmental threats. RbohD and RbohF, two of the ten Rboh genes present in Arabidopsis, are pleiotropic and mediate diverse physiological processes in response to pathogens. One aspect that may prove critical to determine the multiplicity of functions of RbohD and RbohF is the spatio-temporal control of their gene expression. Thus, we generated Arabidopsis transgenic lines with RbohD- and RbohF-promoter fusions to the β-glucuronidase and the luciferase reporter genes. These transgenics were employed to reveal RbohD and RbohF promoter activity during Arabidopsis immune response to the pathogenic bacterium Pseudomonas syringae pv tomato DC3000, the necrotrophic fungus Plectosphaerella cucumerina and in response to immunity-related cues. Our experiments revealed a differential expression pattern of RbohD and RbohF throughout plant development and during Arabidopsis immune response. Moreover, we observed a correlation between the level of RbohD and RbohF promoter activity, the accumulation of ROS and the amount of cell death in response to pathogens. RbohD and RbohF gene expression was also differentially modulated by pathogen associated molecular patterns and abscisic acid. Interestingly, a promoter-swap strategy revealed the requirement for the promoter region of RbohD to drive the production of ROS in response to P. cucumerina. Additionally, since the RbohD promoter was activated during Arabidopsis interaction with a non-adapted P. cucumerina isolate 2127, we performed susceptibility tests to this fungal isolate that uncovered a new role of these oxidases on non-host resistance. The interplay between RBOH-dependent signaling with other components of the plant immune response might also explain the different immunity-related functions mediated by these oxidases. Among the plethora of signals coordinated with RBOH activity, pharmacological and genetic evidence indicates that heterotrimeric G proteins are involved in some of the signaling pathways mediated by RBOH–derived ROS in response to environmental cues. Therefore, we analysed the interplay between these RBOH-NADPH oxidases and AGB1, the Arabidopsis β-subunit of heterotrimeric G proteins during Arabidopsis immune response. We carried out epistasis studies that allowed us to test the implication of AGB1 in different RBOH-mediated defense signaling pathways. Our results illustrate the complex relationship between RBOH and heterotrimeric G proteins signaling, that varies depending on the type of plant-pathogen interaction. Furthermore, we tested the potential association between AGB1 with RBOHD and RBOHF during early immunity. Interestingly, our co-immunoprecipitation experiments point towards an association of AGB1 and the RBOHD regulatory kinase BIK1, thus providing a putative mechanism in the control of the NADPH oxidase function by AGB1. Taken all together, these studies provide further insights into the role that transcriptional control or the interaction with heterotrimeric G-proteins have on RBOH-NADPH oxidase-dependent ROS production and signaling in immunity. Our work exemplifies how, through a differential regulation, two members of a multigenic family achieve specialized physiological functions using a common enzymatic mechanism.
Resumo:
Los sismos afectan a las estructuras en función de su intensidad. Normalmente se espera de las estructuras daños irreparables por motivos de ductilidad en los sismos nominales o de diseño, para protección de las personas y sus bienes. No obstante, las estructuras en zonas sísmicas sufren terremotos de baja o media intensidad de manera continuada y éstos pueden afectar a la capacidad resistente residual de las mismas, es por eso que en el presente trabajo se plantea lo siguiente: a) Identificar cuál es la estrategia o nivel de protección, que consideran las diferentes Normativas y Reglamentos frente a sismos de baja o mediana intensidad, puesto que durante la vida útil de una estructura, esta puede verse afectada por sismos de intensidad baja o moderada, los cuales también provocan daños; es por ello que es de mucha importancia conocer y estudiar el aporte, estrategias y demás parámetros que consideran las Normas, esto mediante la técnica de revisión de documentación o Literatura. b) Identificar la manera con que un terremoto de baja o media intensidad afecta a la capacidad resistente de las estructuras, sus señales, sus síntomas de daño, etc. Esto a través de tres técnicas de Investigación : Revisión en Literatura, Tormenta de ideas con un grupo de expertos en el tema, y mediante la Técnica Delphi; para finalmente aplicar una método de refinamiento para elaborar un listado y un mapa de síntomas esperables en las estructuras, consecuencia de eventos sísmicos de baja o mediana intensidad. Los cuales se podrían controlar con sistemas inteligentes y así monitorizar las construcciones para prever su comportamiento futuro. Earthquakes affect structures depending on its intensity. Normally it expected of the irreparable damage structures. It due to ductility in nominal earthquakes to protect people and property. Structures in seismic areas suffer earthquakes of low to medium intensity continually, and it may affect the residual resistant ability, therefore posed in this investigation is the following: (a) Identifying what is the strategy or level of protection, which consider different guidelines and regulations against earthquakes of low to medium intensity. Since during the service life of a structure may be affected by low or moderate intensity earthquakes, which also cause damage. For this reason it is very important also to meet and study the contribution, strategies and other parameters considered by the Guidelines by reviewing the documentation or literature technique. b) Identifying the way an earthquake of low to medium intensity affects the resistant ability of structures, their signs, their symptoms of injury, etc. Through three research techniques: review of documentation or literature, brainstorming technique with a group of experts, and using the Delphi technique. Finally applying a method of refining to produce a list and a map of symptoms expected in structures, consequence of low to medium intensity earthquakes. It could be controlled with intelligent systems and thus to monitor structures to predict its future behavior
Resumo:
La evolución del incremento de la demanda de gas natural tiene su origen en la depreciación del precio de la materia prima frente a otras fuentes de energía, como el carbón y los combustibles líquidos. Este hecho ha ocasionado un aumento de la inversión en las instalaciones de procesado de Gas Natural Licuado (GNL). El gas natural proveniente del yacimiento, contiene contaminantes, que han de ser extraídos para su correcta manipulación en el proceso de licuefacción del GNL. El objetivo del presente Trabajo de Fin de Grado es el de diseñar y simular la Unidad de Separación de Gases Ácidos del Proyecto Gorgon (Australia). En la actualidad se utilizan distintos tipos de aminas para eliminar el contenido de gases ácidos (CO2 y H2S) del gas natural. En particular la combinación de Metildietanolamina con otros solventes formulados, mejora la eficiencia de la captura y por ello, ha sido el proceso con mayor repercusión de la última década. Basado en la bibliografía pública del Proyecto Gorgon y las tecnologías actuales de solución de aminas, se consigue simular las condiciones reales de la unidad de separación de gases ácidos. Así mismo, facilita la identificación de los parámetros de operación del proceso, su optimización y el dimensionamiento de los equipos. El trabajo concluye con un análisis económico y un análisis de sensibilidad frente al VAN y TIR de dos parámetros fundamentales de la instalación.
Resumo:
El objetivo principal de esta tesis ha sido el diseño y la optimización de receptores implementados con fibra óptica, para ser usados en redes ópticas de alta velocidad que empleen formatos de modulación de fase. En los últimos años, los formatos de modulación de fase (Phase Shift keying, PSK) han captado gran atención debido a la mejora de sus prestaciones respecto a los formatos de modulación convencionales. Principalmente, presentan una mejora de la eficiencia espectral y una mayor tolerancia a la degradación de la señal causada por la dispersión cromática, la dispersión por modo de polarización y los efectos no-lineales en la fibra óptica. En este trabajo, se analizan en detalle los formatos PSK, incluyendo sus variantes de modulación de fase diferencial (Differential Phase Shift Keying, DPSK), en cuadratura (Differential Quadrature Phase Shift Keying, DQPSK) y multiplexación en polarización (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), con la finalidad de diseñar y optimizar los receptores que permita su demodulación. Para ello, se han analizado y desarrollado nuevas estructuras que ofrecen una mejora en las prestaciones del receptor y una reducción de coste comparadas con las actualmente disponibles. Para la demodulación de señales DPSK, en esta tesis, se proponen dos nuevos receptores basados en un interferómetro en línea Mach-Zehnder (MZI) implementado con tecnología todo-fibra. El principio de funcionamiento de los MZI todo-fibra propuestos se asienta en la interferencia modal que se produce en una fibra multimodo (MMF) cuando se situada entre dos monomodo (SMF). Este tipo de configuración (monomodo-multimodo-monomodo, SMS) presenta un buen ratio de extinción interferente si la potencia acoplada en la fibra multimodo se reparte, principal y equitativamente, entre dos modos dominantes. Con este objetivo, se han estudiado y demostrado tanto teórica como experimentalmente dos nuevas estructuras SMS que mejoran el ratio de extinción. Una de las propuestas se basa en emplear una fibra multimodo de índice gradual cuyo perfil del índice de refracción presenta un hundimiento en su zona central. La otra consiste en una estructura SMS con las fibras desalineadas y donde la fibra multimodo es una fibra de índice gradual convencional. Para las dos estructuras, mediante el análisis teórico desarrollado, se ha demostrado que el 80 – 90% de la potencia de entrada se acopla a los dos modos dominantes de la fibra multimodo y se consigue una diferencia inferior al 10% entre ellos. También se ha demostrado experimentalmente que se puede obtener un ratio de extinción de al menos 12 dB. Con el objeto de demostrar la capacidad de estas estructuras para ser empleadas como demoduladores de señales DPSK, se han realizado numerosas simulaciones de un sistema de transmisión óptico completo y se ha analizado la calidad del receptor bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo o la tolerancia a las dispersiones cromática y por modo de polarización. En todos los casos se ha concluido que los receptores propuestos presentan rendimientos comparables a los obtenidos con receptores convencionales. En esta tesis, también se presenta un diseño alternativo para la implementación de un receptor DQPSK, basado en el uso de una fibra mantenedora de la polarización (PMF). A través del análisi teórico y del desarrollo de simulaciones numéricas, se ha demostrado que el receptor DQPSK propuesto presenta prestaciones similares a los convencionales. Para complementar el trabajo realizado sobre el receptor DQPSK basado en PMF, se ha extendido el estudio de su principio de demodulación con el objeto de demodular señales PM-DQPSK, obteniendo como resultado la propuesta de una nueva estructura de demodulación. El receptor PM-DQPSK propuesto se basa en la estructura conjunta de una única línea de retardo junto con un rotador de polarización. Se ha analizado la calidad de los receptores DQPSK y PM-DQPSK bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo, la tolerancia a las dispersiones cromática y por modo de polarización o su comportamiento bajo condiciones no-ideales. En comparación con los receptores convencionales, nuestra propuesta exhibe prestaciones similares y además permite un diseño más simple que redunda en un coste potencialmente menor. En las redes de comunicaciones ópticas actuales se utiliza la tecnología de multimplexación en longitud de onda (WDM) que obliga al uso de filtros ópticos con bandas de paso lo más estrechas posibles y a emplear una serie de dispositivos que incorporan filtros en su arquitectura, tales como los multiplexores, demultiplexores, ROADMs, conmutadores y OXCs. Todos estos dispositivos conectados entre sí son equivalentes a una cadena de filtros cuyo ancho de banda se va haciendo cada vez más estrecho, llegando a distorsionar la forma de onda de las señales. Por esto, además de analizar el impacto del filtrado óptico en las señales de 40 Gbps DQPSK y 100 Gbps PM-DQPSK, este trabajo de tesis se completa estudiando qué tipo de filtro óptico minimiza las degradaciones causadas en la señal y analizando el número máximo de filtros concatenados que permiten mantener la calidad requerida al sistema. Se han estudiado y simulado cuatro tipos de filtros ópticos;Butterworth, Bessel, FBG y F-P. ABSTRACT The objective of this thesis is the design and optimization of optical fiber-based phase shift keying (PSK) demodulators for high-bit-rate optical networks. PSK modulation formats have attracted significant attention in recent years, because of the better performance with respect to conventional modulation formats. Principally, PSK signals can improve spectrum efficiency and tolerate more signal degradation caused by chromatic dispersion, polarization mode dispersion and nonlinearities in the fiber. In this work, many PSK formats were analyzed in detail, including the variants of differential phase modulation (Differential Phase Shift Keying, DPSK), in quadrature (Differential Quadrature Phase Shift Keying, DQPSK) and polarization multiplexing (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), in order to design and optimize receivers enabling demodulations. Therefore, novel structures, which offer good receiver performances and a reduction in cost compared to the current structures, have been analyzed and developed. Two novel receivers based on an all-fiber in-line Mach-Zehnder interferometer (MZI) were proposed for DPSK signal demodulation in this thesis. The operating principle of the all-fiber MZI is based on the modal interference that occurs in a multimode fiber (MMF) when it is located between two single-mode fibers (SMFs). This type of configuration (Single-mode-multimode-single-mode, SMS) can provide a good extinction ratio if the incoming power from the SMF could be coupled equally into two dominant modes excited in the MMF. In order to improve the interference extinction ratio, two novel SMS structures have been studied and demonstrated, theoretically and experimentally. One of the two proposed MZIs is based on a graded-index multimode fiber (MMF) with a central dip in the index profile, located between two single-mode fibers (SMFs). The other one is based on a conventional graded-index MMF mismatch spliced between two SMFs. Theoretical analysis has shown that, in these two schemes, 80 – 90% of the incoming power can be coupled into the two dominant modes exited in the MMF, and the power difference between them is only ~10%. Experimental results show that interference extinction ratio of 12 dB could be obtained. In order to demonstrate the capacity of these two structures for use as DPSK signal demodulators, numerical simulations in a completed optical transmission system have been carried out, and the receiver quality has been analyzed under different perspectives, such as sensitivity, tolerance to severe optical filtering or tolerance to chromatic and polarization mode dispersion. In all cases, from the simulation results we can conclude that the two proposed receivers can provide performances comparable to conventional ones. In this thesis, an alternative design for the implementation of a DQPSK receiver, which is based on a polarization maintaining fiber (PMF), was also presented. To complement the work made for the PMF-based DQPSK receiver, the study of the demodulation principle has been extended to demodulate PM-DQPSK signals, resulting in the proposal of a novel demodulation structure. The proposed PM-DQPSK receiver is based on only one delay line and a polarization rotator. The quality of the proposed DQPSK and PM-DQPSK receivers under different perspectives, such as sensitivity, tolerance to severe optical filtering, tolerance to chromatic dispersion and polarization mode dispersion, or behavior under non-ideal conditions. Compared with the conventional receivers, our proposals exhibit similar performances but allow a simpler design which can potentially reduce the cost. The wavelength division multiplexing (WDM) technology used in current optical communications networks requires the use of optical filters with a passband as narrow as possible, and the use of a series of devices that incorporate filters in their architecture, such as multiplexers, demultiplexers, switches, reconfigurable add-drop multiplexers (ROADMs) and optical cross-connects (OXCs). All these devices connected together are equivalent to a chain of filters whose bandwidth becomes increasingly narrow, resulting in distortion to the waveform of the signals. Therefore, in addition to analyzing the impact of optical filtering on signal of 40 Gbps DQPSK and 100 Gbps PM-DQPSK, we study which kind of optical filter minimizes the signal degradation and analyze the maximum number of concatenated filters for maintaining the required quality of the system. Four types of optical filters, including Butterworth, Bessel, FBG and FP, have studied and simulated.
Resumo:
El análisis de las diferentes alternativas en la planificación y diseño de corredores y trazados de carreteras debe basarse en la correcta definición de variables territoriales que sirvan como criterios para la toma de decisión y esto requiere un análisis ambiental preliminar de esas variables de calidad. En España, los estudios de viabilidad de nuevas carreteras y autovías están asociados a una fase del proceso de decisión que se corresponde con el denominado Estudio Informativo, el cual establece condicionantes físicos, ambientales, de uso del suelo y culturales que deben ser considerados en las primeras fases de la definición del trazado de un corredor de carretera. Así, la metodología más frecuente es establecer diferentes niveles de capacidad de acogida del territorio en el área de estudio con el fin de resumir las variables territoriales en mapas temáticos y facilitar el proceso de trazado de las alternativas de corredores de carretera. El paisaje es un factor limitante a tener en cuenta en la planificación y diseño de carreteras y, por tanto, deben buscarse trazados más sostenibles en relación con criterios estéticos y ecológicos del mismo. Pero este factor no es frecuentemente analizado en los Estudios Informativos e incluso, si es considerado, los estudios específicos de la calidad del paisaje (estético y ecológico) y de las formas del terreno no incorporan las recomendaciones de las guías de trazado para evitar o reducir los impactos en el paisaje. Además, los mapas de paisaje que se generan en este tipo de estudios no se corresponden con la escala de desarrollo del Estudio Informativo (1:5.000). Otro déficit común en planificación de corredores y trazados de carreteras es que no se tiene en cuenta la conectividad del paisaje durante el proceso de diseño de la carretera para prevenir la afección a los corredores de fauna existentes en el paisaje. Este déficit puede originar un posterior efecto barrera en los movimientos dispersivos de la fauna y la fragmentación de sus hábitats debido a la ocupación parcial o total de las teselas de hábitats con importancia biológica para la fauna (o hábitats focales) y a la interrupción de los corredores de fauna que concentran esos movimientos dispersivos de la fauna entre teselas. El objetivo principal de esta tesis es mejorar el estudio del paisaje para prevenir su afección durante el proceso de trazado de carreteras, facilitar la conservación de los corredores de fauna (o pasillos verdes) y la localización de medidas preventivas y correctoras en términos de selección y cuantificación de factores de idoneidad a fin de reducir los impactos visuales y ecológicos en el paisaje a escala local. Concretamente, la incorporación de valores cuantitativos y bien justificados en el proceso de decisión permite incrementar la transparencia en el proceso de diseño de corredores y trazados de carreteras. Con este fin, se han planteado cuatro preguntas específicas en esta investigación (1) ¿Cómo se seleccionan y evalúan los factores territoriales limitantes para localizar una nueva carretera por los profesionales españoles de planificación del territorio en relación con el paisaje? (2) ¿Cómo pueden ser definidos los corredores de fauna a partir de factores del paisaje que influyen en los movimientos dispersivos de la fauna? (3) ¿Cómo pueden delimitarse y evaluarse los corredores de fauna incluyendo el comportamiento parcialmente errático en los movimientos dispersivos de la fauna y el efecto barrera de los elementos antrópicos a una escala local? (4) ¿Qué y cómo las recomendaciones de diseño de carreteras relacionadas con el paisaje y las formas del terreno pueden ser incluidas en un modelo de Sistemas de Información Geográfica (SIG) para ayudar a los ingenieros civiles durante el proceso de diseño de un trazado de carreteras bajo el punto de vista de la sostenibilidad?. Esta tesis doctoral propone nuevas metodologías que mejoran el análisis visual y ecológico del paisaje utilizando indicadores y modelos SIG para obtener alternativas de trazado que produzcan un menor impacto en el paisaje. Estas metodologías fueron probadas en un paisaje heterogéneo con una alta tasa de densidad de corzo (Capreolus capreolus L.), uno de los grandes mamíferos más atropellados en la red de carreteras españolas, y donde está planificada la construcción de una nueva autovía que atravesará la mitad del área de distribución del corzo. Inicialmente, se han analizado las variables utilizadas en 22 estudios de proyectos de planificación de corredores de carreteras promovidos por el Ministerio de Fomento entre 2006 y 2008. Estas variables se agruparon según condicionantes físicos, ambientales, de usos del suelo y culturales con el fin de comparar los valores asignados de capacidad de acogida del territorio a cada variable en los diferentes estudios revisados. Posteriormente, y como etapa previa de un análisis de conectividad, se construyó un mapa de resistencia de los movimientos dispersivos del corzo en base a la literatura y al juicio de expertos. Usando esta investigación como base, se le asignó un valor de resistencia a cada factor seleccionado para construir la matriz de resistencia, ponderándolo y combinándolo con el resto de factores usando el proceso analítico jerárquico y los operadores de lógica difusa como métodos de análisis multicriterio. Posteriormente, se diseñó una metodología SIG para delimitar claramente la extensión física de los corredores de fauna de acuerdo a un valor umbral de ancho geométrico mínimo, así como la existencia de múltiples potenciales conexiones entre cada par de teselas de hábitats presentes en el paisaje estudiado. Finalmente, se realizó un procesado de datos Light Detection and Ranging (LiDAR) y un modelo SIG para calcular la calidad del paisaje (estético y ecológico), las formas del terreno que presentan características similares para trazar una carretera y la acumulación de vistas de potenciales conductores y observadores de los alrededores de la nueva vía. Las principales contribuciones de esta investigación al conocimiento científico existente en el campo de la evaluación del impacto ambiental en relación al diseño de corredores y trazados de carreteras son cuatro. Primero, el análisis realizado de 22 Estudios Informativos de planificación de carreteras reveló que los métodos aplicados por los profesionales para la evaluación de la capacidad de acogida del territorio no fue suficientemente estandarizada, ya que había una falta de uniformidad en el uso de fuentes cartográficas y en las metodologías de evaluación de la capacidad de acogida del territorio, especialmente en el análisis de la calidad del paisaje estético y ecológico. Segundo, el análisis realizado en esta tesis destaca la importancia de los métodos multicriterio para estructurar, combinar y validar factores que limitan los movimientos dispersivos de la fauna en el análisis de conectividad. Tercero, los modelos SIG desarrollados Generador de alternativas de corredores o Generator of Alternative Corridors (GAC) y Eliminador de Corredores Estrechos o Narrow Corridor Eraser (NCE) pueden ser aplicados sistemáticamente y sobre una base científica en análisis de conectividad como una mejora de las herramientas existentes para la comprensión el paisaje como una red compuesta por nodos y enlaces interconectados. Así, ejecutando los modelos GAC y NCE de forma iterativa, pueden obtenerse corredores alternativos con similar probabilidad de ser utilizados por la fauna y sin que éstos presenten cuellos de botella. Cuarto, el caso de estudio llevado a cabo de prediseño de corredores y trazado de una nueva autovía ha sido novedoso incluyendo una clasificación semisupervisada de las formas del terreno, filtrando una nube de puntos LiDAR e incluyendo la nueva geometría 3D de la carretera en el Modelo Digital de Superficie (MDS). El uso combinado del procesamiento de datos LiDAR y de índices y clasificaciones geomorfológicas puede ayudar a los responsables encargados en la toma de decisiones a evaluar qué alternativas de trazado causan el menor impacto en el paisaje, proporciona una visión global de los juicios de valor más aplicados y, en conclusión, define qué medidas de integración paisajística correctoras deben aplicarse y dónde. ABSTRACT The assessment of different alternatives in road-corridor planning and layout design must be based on a number of well-defined territorial variables that serve as decision-making criteria, and this requires a high-quality preliminary environmental analysis of those quality variables. In Spain, feasibility studies for new roads and motorways are associated to a phase of the decision procedure which corresponds with the one known as the Informative Study, which establishes the physical, environmental, land-use and cultural constraints to be considered in the early stages of defining road corridor layouts. The most common methodology is to establish different levels of Territorial Carrying Capacity (TCC) in the study area in order to summarize the territorial variables on thematic maps and facilitate the tracing process of road-corridor layout alternatives. Landscape is a constraint factor that must be considered in road planning and design, and the most sustainable layouts should be sought based on aesthetic and ecological criteria. However this factor is not often analyzed in Informative Studies and even if it is, baseline studies on landscape quality (aesthetic and ecological) and landforms do not usually include the recommendations of road tracing guides designed to avoid or reduce impacts on the landscape. The resolution of the landscape maps produced in this type of studies does not comply with the recommended road design scale (1:5,000) in the regulations for the Informative Study procedure. Another common shortcoming in road planning is that landscape ecological connectivity is not considered during road design in order to avoid affecting wildlife corridors in the landscape. In the prior road planning stage, this issue could lead to a major barrier effect for fauna dispersal movements and to the fragmentation of their habitat due to the partial or total occupation of habitat patches of biological importance for the fauna (or focal habitats), and the interruption of wildlife corridors that concentrate fauna dispersal movements between patches. The main goal of this dissertation is to improve the study of the landscape and prevent negative effects during the road tracing process, and facilitate the preservation of wildlife corridors (or green ways) and the location of preventive and corrective measures by selecting and quantifying suitability factors to reduce visual and ecological landscape impacts at a local scale. Specifically the incorporation of quantitative and well-supported values in the decision-making process provides increased transparency in the road corridors and layouts design process. Four specific questions were raised in this research: (1) How are territorial constraints selected and evaluated in terms of landscape by Spanish land-planning practitioners before locating a new road? (2) How can wildlife corridors be defined based on the landscape factors influencing the dispersal movements of fauna? (3) How can wildlife corridors be delimited and assessed to include the partially erratic movements of fauna and the barrier effect of the anthropic elements at a local scale? (4) How recommendations of road design related to landscape and landforms can be included in a Geographic Information System (GIS) model to aid civil engineers during the road layout design process and support sustainable development? This doctoral thesis proposes new methodologies that improve the assessment of the visual and ecological landscape character using indicators and GIS models to obtain road layout alternatives with a lower impact on the landscape. These methodologies were tested on a case study of a heterogeneous landscape with a high density of roe deer (Capreolus capreolus L.) –one of the large mammals most commonly hit by vehicles on the Spanish road network– and where a new motorway is planned to pass through the middle of their distribution area. We explored the variables used in 22 road-corridor planning projects sponsored by the Ministry of Public Works between 2006 and 2008. These variables were grouped into physical, environmental, land-use and cultural constraints for the purpose of comparing the TCC values assigned to each variable in the various studies reviewed. As a prior stage in a connectivity analysis, a map of resistance to roe deer dispersal movements was created based on the literature and experts judgment. Using this research as a base, each factor selected to build the matrix was assigned a resistance value and weighted and combined with the rest of the factors using the analytic hierarchy process (AHP) and fuzzy logic operators as multicriteria assessment (MCA) methods. A GIS methodology was designed to clearly delimit the physical area of wildlife corridors according to a geometric threshold width value, and the multiple potential connections between each pair of habitat patches in the landscape. A Digital Surface Model Light Detection and Ranging (LiDAR) dataset processing and a GIS model was performed to determine landscape quality (aesthetic and ecological) and landforms with similar characteristics for the road layout, and the cumulative viewshed of potential drivers and observers in the area surrounding the new motorway. The main contributions of this research to current scientific knowledge in the field of environmental impact assessment for road corridors and layouts design are four. First, the analysis of 22 Informative Studies on road planning revealed that the methods applied by practitioners for assessing the TCC were not sufficiently standardized due to the lack of uniformity in the cartographic information sources and the TCC valuation methodologies, especially in the analysis of the aesthetic and ecological quality of the landscape. Second, the analysis in this dissertation highlights the importance of multicriteria methods to structure, combine and validate factors that constrain wildlife dispersal movements in the connectivity analysis. Third, the “Generator of Alternative Corridors (GAC)” and “Narrow Corridor Eraser (NCE)” GIS models developed can be applied systematically and on a scientific basis in connectivity analyses to improve existing tools and understand landscape as a network composed of interconnected nodes and links. Thus, alternative corridors with similar probability of use by fauna and without bottlenecks can be obtained by iteratively running GAC and NCE models. Fourth, our case study of new motorway corridors and layouts design innovatively included semi-supervised classification of landforms, filtering of LiDAR point clouds and new 3D road geometry on the Digital Surface Model (DSM). The combined used of LiDAR data processing and geomorphological indices and classifications can help decision-makers assess which road layouts produce lower impacts on the landscape, provide an overall insight into the most commonly applied value judgments, and in conclusion, define which corrective measures should be applied in terms of landscaping, and where.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
Las cascadas de señalización mediadas por proteína quinasas activadas por mitógeno (MAP quinasas) son capaces de integrar y transducir señales ambientales en respuestas celulares. Entre estas señales se encuentran los PAMPs/MAMPs (Pathogen/Microbe-Associated Molecular Patterns), que son moléculas de patógenos o microorganismos, o los DAMPs (Damaged-Associated Molecular Patterns), que son moléculas derivadas de las plantas producidas en respuesta a daño celular. Tras el reconocimiento de los PAMPs/DAMPs por receptores de membrana denominados PRRs (Pattern Recognition Receptors), como los receptores con dominio quinasa (RLKs) o los receptores sin dominio quinasa (RLPs), se activan respuestas moleculares, incluidas cascadas de MAP quinasas, que regulan la puesta en marcha de la inmunidad activada por PAMPs (PTI). Esta Tesis describe la caracterización funcional de la MAP quinasa quinasa quinasa (MAP3K) YODA (YDA), que actúa como un regulador clave de la PTI en Arabidopsis. Se ha descrito previamente que YDA controla varios procesos de desarrollo, como la regulación del patrón estomático, la elongación del zigoto y la arquitectura floral. Hemos caracterizado un alelo mutante hipomórfico de YDA (elk2 o yda11) que presenta una elevada susceptibilidad a patógenos biótrofos y necrótrofos. Notablemente, plantas que expresan una forma constitutivamente activa de YDA (CA-YDA), con una deleción en el dominio N-terminal, presentan una resistencia de amplio espectro frente a diferentes tipos de patógenos, incluyendo hongos, oomicetos y bacterias, lo que indica que YDA juega un papel importante en la regulación de la resistencia de las plantas a patógenos. Nuestros datos indican que esta función es independiente de las respuestas inmunes mediadas por los receptores previamente caracterizados FLS2 y CERK1, que reconocen los PAMPs flg22 y quitina, respectivamente, y que están implicados en la resistencia de Arabidopsis frente a bacterias y hongos. Hemos demostrado que YDA controla la resistencia frente al hongo necrótrofo Plectosphaerella cucumerina y el patrón estomático mediante su interacción genética con la RLK ERECTA (ER), un PRR implicado en la regulación de estos procesos. Por el contrario, la interacción genética entre ER y YDA en la regulación de otros procesos de desarrollo es aditiva en lugar de epistática. Análisis genéticos indicaron que MPK3, una MAP quinasa que funciona aguas abajo de YDA en el desarrollo estomático, es un componente de la ruta de señalización mediada por YDA para la resistencia frente a P. cucumerina, lo que sugiere que el desarrollo de las plantas y la PTI comparten el módulo de transducción de MAP quinasas asociado a YDA. Nuestros experimentos han revelado que la resistencia mediada por YDA es independiente de las rutas de señalización reguladas por las hormonas de defensa ácido salicílico, ácido jasmónico, ácido abscísico o etileno, y también es independiente de la ruta de metabolitos secundarios derivados del triptófano, que están implicados en inmunidad vegetal. Además, hemos demostrado que respuestas asociadas a PTI, como el aumento en la concentración de calcio citoplásmico, la producción de especies reactivas de oxígeno, la fosforilación de MAP quinasas y la expresión de genes de defensa, no están afectadas en el mutante yda11. La expresión constitutiva de la proteína CA-YDA en plantas de Arabidopsis no provoca un aumento de las respuestas PTI, lo que sugiere la existencia de mecanismos de resistencia adicionales regulados por YDA que son diferentes de los regulados por FLS2 y CERK1. En línea con estos resultados, nuestros datos transcriptómicos revelan una sobre-representación en plantas CA-YDA de genes de defensa que codifican, por ejemplo, péptidos antimicrobianos o reguladores de muerte celular, o proteínas implicadas en la biogénesis de la pared celular, lo que sugiere una conexión potencial entre la composición e integridad de la pared celular y la resistencia de amplio espectro mediada por YDA. Además, análisis de fosfoproteómica indican la fosforilación diferencial de proteínas relacionadas con la pared celular en plantas CA-YDA en comparación con plantas silvestres. El posible papel de la ruta ER-YDA en la regulación de la integridad de la pared celular está apoyado por análisis bioquímicos y glicómicos de las paredes celulares de plantas er, yda11 y CA-YDA, que revelaron cambios significativos en la composición de la pared celular de estos genotipos en comparación con la de plantas silvestres. En resumen, nuestros datos indican que ER y YDA forman parte de una nueva ruta de inmunidad que regula la integridad de la pared celular y respuestas defensivas, confiriendo una resistencia de amplio espectro frente a patógenos. ABSTRACT Plant mitogen-activated protein kinase (MAPK) cascades transduce environmental signals and developmental cues into cellular responses. Among these signals are the pathogen- or microbe-associated molecular patterns (PAMPs or MAMPs) and the damage-associated molecular patterns (DAMPs). These PAMPs/DAMPs, upon recognition by plant pattern recognition receptors (PRRs), such as Receptor-Like Kinases (RLKs) and Receptor-Like Proteins (RLPs), activate molecular responses, including MAPK cascades, which regulate the onset of PAMP-triggered immunity (PTI). This Thesis describes the functional characterization of the MAPK kinase kinase (MAP3K) YODA (YDA) as a key regulator of Arabidopsis PTI. YDA has been previously described to control several developmental processes, such as stomatal patterning, zygote elongation and inflorescence architecture. We characterized a hypomorphic, non-embryo lethal mutant allele of YDA (elk2 or yda11) that was found to be highly susceptible to biotrophic and necrotrophic pathogens. Remarkably, plants expressing a constitutive active form of YDA (CA-YDA), with a deletion in the N-terminal domain, showed broad-spectrum resistance to different types of pathogens, including fungi, oomycetes and bacteria, indicating that YDA plays a relevant function in plant resistance to pathogens. Our data indicated that this function is independent of the immune responses regulated by the well characterized FLS2 and CERK1 RLKs, which are the PRRs recognizing flg22 and chitin PAMPs, respectively, and are required for Arabidopsis resistance to bacteria and fungi. We demonstrate that YDA controls resistance to the necrotrophic fungus Plectosphaerella cucumerina and stomatal patterning by genetically interacting with ERECTA (ER) RLK, a PRR involved in regulating these processes. In contrast, the genetic interaction between ER and YDA in the regulation of other ER-associated developmental processes was additive, rather than epistatic. Genetic analyses indicated that MPK3, a MAP kinase that functions downstream of YDA in stomatal development, also regulates plant resistance to P. cucumerina in a YDA-dependent manner, suggesting that the YDA-associated MAPK transduction module is shared in plant development and PTI. Our experiments revealed that YDA-mediated resistance was independent of signalling pathways regulated by defensive hormones like salicylic acid, jasmonic acid, abscisic acid or ethylene, and of the tryptophan-derived metabolites pathway, which are involved in plant immunity. In addition, we showed that PAMP-mediated PTI responses, such as the increase of cytoplasmic Ca2+ concentration, reactive oxygen species (ROS) burst, MAPK phosphorylation, and expression of defense-related genes are not impaired in the yda11 mutant. Furthermore, the expression of CA-YDA protein does not result in enhanced PTI responses, further suggesting the existence of additional mechanisms of resistance regulated by YDA that differ from those regulated by the PTI receptors FLS2 and CERK1. In line with these observations, our transcriptomic data revealed the over-representation in CA-YDA plants of defensive genes, such as those encoding antimicrobial peptides and cell death regulators, and genes encoding cell wall-related proteins, suggesting a potential link between plant cell wall composition and integrity and broad spectrum resistance mediated by YDA. In addition, phosphoproteomic data revealed an over-representation of genes encoding wall-related proteins in CA-YDA plants in comparison with wild-type plants. The putative role of the ER-YDA pathway in regulating cell wall integrity was further supported by biochemical and glycomics analyses of er, yda11 and CA-YDA cell walls, which revealed significant changes in the cell wall composition of these genotypes compared with that of wild-type plants. In summary, our data indicate that ER and YDA are components of a novel immune pathway that regulates cell wall integrity and defensive responses, which confer broad-spectrum resistance to pathogens.
Resumo:
Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.
Resumo:
La diabetes comprende un conjunto de enfermedades metabólicas que se caracterizan por concentraciones de glucosa en sangre anormalmente altas. En el caso de la diabetes tipo 1 (T1D, por sus siglas en inglés), esta situación es debida a una ausencia total de secreción endógena de insulina, lo que impide a la mayoría de tejidos usar la glucosa. En tales circunstancias, se hace necesario el suministro exógeno de insulina para preservar la vida del paciente; no obstante, siempre con la precaución de evitar caídas agudas de la glucemia por debajo de los niveles recomendados de seguridad. Además de la administración de insulina, las ingestas y la actividad física son factores fundamentales que influyen en la homeostasis de la glucosa. En consecuencia, una gestión apropiada de la T1D debería incorporar estos dos fenómenos fisiológicos, en base a una identificación y un modelado apropiado de los mismos y de sus sorrespondientes efectos en el balance glucosa-insulina. En particular, los sistemas de páncreas artificial –ideados para llevar a cabo un control automático de los niveles de glucemia del paciente– podrían beneficiarse de la integración de esta clase de información. La primera parte de esta tesis doctoral cubre la caracterización del efecto agudo de la actividad física en los perfiles de glucosa. Con este objetivo se ha llevado a cabo una revisión sistemática de la literatura y meta-análisis que determinen las respuestas ante varias modalidades de ejercicio para pacientes con T1D, abordando esta caracterización mediante unas magnitudes que cuantifican las tasas de cambio en la glucemia a lo largo del tiempo. Por otro lado, una identificación fiable de los periodos con actividad física es un requisito imprescindible para poder proveer de esa información a los sistemas de páncreas artificial en condiciones libres y ambulatorias. Por esta razón, la segunda parte de esta tesis está enfocada a la propuesta y evaluación de un sistema automático diseñado para reconocer periodos de actividad física, clasificando su nivel de intensidad (ligera, moderada o vigorosa); así como, en el caso de periodos vigorosos, identificando también la modalidad de ejercicio (aeróbica, mixta o de fuerza). En este sentido, ambos aspectos tienen una influencia específica en el mecanismo metabólico que suministra la energía para llevar a cabo el ejercicio y, por tanto, en las respuestas glucémicas en T1D. En este trabajo se aplican varias combinaciones de técnicas de aprendizaje máquina y reconocimiento de patrones sobre la fusión multimodal de señales de acelerometría y ritmo cardíaco, las cuales describen tanto aspectos mecánicos del movimiento como la respuesta fisiológica del sistema cardiovascular ante el ejercicio. Después del reconocimiento de patrones se incorpora también un módulo de filtrado temporal para sacar partido a la considerable coherencia temporal presente en los datos, una redundancia que se origina en el hecho de que en la práctica, las tendencias en cuanto a actividad física suelen mantenerse estables a lo largo de cierto tiempo, sin fluctuaciones rápidas y repetitivas. El tercer bloque de esta tesis doctoral aborda el tema de las ingestas en el ámbito de la T1D. En concreto, se propone una serie de modelos compartimentales y se evalúan éstos en función de su capacidad para describir matemáticamente el efecto remoto de las concetraciones plasmáticas de insulina exógena sobre las tasas de eleiminación de la glucosa atribuible a la ingesta; un aspecto hasta ahora no incorporado en los principales modelos de paciente para T1D existentes en la literatura. Los datos aquí utilizados se obtuvieron gracias a un experimento realizado por el Institute of Metabolic Science (Universidad de Cambridge, Reino Unido) con 16 pacientes jóvenes. En el experimento, de tipo ‘clamp’ con objetivo variable, se replicaron los perfiles individuales de glucosa, según lo observado durante una visita preliminar tras la ingesta de una cena con o bien alta carga glucémica, o bien baja. Los seis modelos mecanísticos evaluados constaban de: a) submodelos de doble compartimento para las masas de trazadores de glucosa, b) un submodelo de único compartimento para reflejar el efecto remoto de la insulina, c) dos tipos de activación de este mismo efecto remoto (bien lineal, bien con un punto de corte), y d) diversas condiciones iniciales. ABSTRACT Diabetes encompasses a series of metabolic diseases characterized by abnormally high blood glucose concentrations. In the case of type 1 diabetes (T1D), this situation is caused by a total absence of endogenous insulin secretion, which impedes the use of glucose by most tissues. In these circumstances, exogenous insulin supplies are necessary to maintain patient’s life; although caution is always needed to avoid acute decays in glycaemia below safe levels. In addition to insulin administrations, meal intakes and physical activity are fundamental factors influencing glucose homoeostasis. Consequently, a successful management of T1D should incorporate these two physiological phenomena, based on an appropriate identification and modelling of these events and their corresponding effect on the glucose-insulin balance. In particular, artificial pancreas systems –designed to perform an automated control of patient’s glycaemia levels– may benefit from the integration of this type of information. The first part of this PhD thesis covers the characterization of the acute effect of physical activity on glucose profiles. With this aim, a systematic review of literature and metaanalyses are conduced to determine responses to various exercise modalities in patients with T1D, assessed via rates-of-change magnitudes to quantify temporal variations in glycaemia. On the other hand, a reliable identification of physical activity periods is an essential prerequisite to feed artificial pancreas systems with information concerning exercise in ambulatory, free-living conditions. For this reason, the second part of this thesis focuses on the proposal and evaluation of an automatic system devised to recognize physical activity, classifying its intensity level (light, moderate or vigorous) and for vigorous periods, identifying also its exercise modality (aerobic, mixed or resistance); since both aspects have a distinctive influence on the predominant metabolic pathway involved in fuelling exercise, and therefore, in the glycaemic responses in T1D. Various combinations of machine learning and pattern recognition techniques are applied on the fusion of multi-modal signal sources, namely: accelerometry and heart rate measurements, which describe both mechanical aspects of movement and the physiological response of the cardiovascular system to exercise. An additional temporal filtering module is incorporated after recognition in order to exploit the considerable temporal coherence (i.e. redundancy) present in data, which stems from the fact that in practice, physical activity trends are often maintained stable along time, instead of fluctuating rapid and repeatedly. The third block of this PhD thesis addresses meal intakes in the context of T1D. In particular, a number of compartmental models are proposed and compared in terms of their ability to describe mathematically the remote effect of exogenous plasma insulin concentrations on the disposal rates of meal-attributable glucose, an aspect which had not yet been incorporated to the prevailing T1D patient models in literature. Data were acquired in an experiment conduced at the Institute of Metabolic Science (University of Cambridge, UK) on 16 young patients. A variable-target glucose clamp replicated their individual glucose profiles, observed during a preliminary visit after ingesting either a high glycaemic-load or a low glycaemic-load evening meal. The six mechanistic models under evaluation here comprised: a) two-compartmental submodels for glucose tracer masses, b) a single-compartmental submodel for insulin’s remote effect, c) two types of activations for this remote effect (either linear or with a ‘cut-off’ point), and d) diverse forms of initial conditions.
Resumo:
Este proyecto se centra en la implementación de un sistema de control activo de ruido mediante algoritmos genéticos. Para ello, se ha tenido en cuenta el tipo de ruido que se quiere cancelar y el diseño del controlador, parte fundamental del sistema de control. El control activo de ruido sólo es eficaz a bajas frecuencias, hasta los 250 Hz, justo para las cuales los elementos pasivos pierden efectividad, y en zonas o recintos de pequeñas dimensiones y conductos. El controlador ha de ser capaz de seguir todas las posibles variaciones del campo acústico que puedan producirse (variaciones de fase, de frecuencia, de amplitud, de funciones de transferencia electro-acústicas, etc.). Su funcionamiento está basado en algoritmos FIR e IIR adaptativos. La elección de un tipo de filtro u otro depende de características tales como linealidad, causalidad y número de coeficientes. Para que la función de transferencia del controlador siga las variaciones que surgen en el entorno acústico de cancelación, tiene que ir variando el valor de los coeficientes del filtro mediante un algoritmo adaptativo. En este proyecto se emplea como algoritmo adaptativo un algoritmo genético, basado en la selección biológica, es decir, simulando el comportamiento evolutivo de los sistemas biológicos. Las simulaciones se han realizado con dos tipos de señales: ruido de carácter aleatorio (banda ancha) y ruido periódico (banda estrecha). En la parte final del proyecto se muestran los resultados obtenidos y las conclusiones al respecto. Summary. This project is focused on the implementation of an active noise control system using genetic algorithms. For that, it has been taken into account the noise type wanted to be canceled and the controller design, a key part of the control system. The active noise control is only effective at low frequencies, up to 250 Hz, for which the passive elements lose effectiveness, and in small areas or enclosures and ducts. The controller must be able to follow all the possible variations of the acoustic field that might be produced (phase, frequency, amplitude, electro-acoustic transfer functions, etc.). It is based on adaptive FIR and IIR algorithms. The choice of a kind of filter or another depends on characteristics like linearity, causality and number of coefficients. Moreover, the transfer function of the controller has to be changing filter coefficients value thought an adaptive algorithm. In this project a genetic algorithm is used as adaptive algorithm, based on biological selection, simulating the evolutionary behavior of biological systems. The simulations have been implemented with two signal types: random noise (broadband) and periodic noise (narrowband). In the final part of the project the results and conclusions are shown.