970 resultados para Receptores ionotrópicos
Resumo:
El actual proyecto consiste en la creación de una interfaz gráfica de usuario (GUI) en entorno de MATLAB que realice una representación gráfica de la base de datos de HRTF (Head-Related Transfer Function). La función de transferencia de la cabeza es una herramienta muy útil en el estudio de la capacidad del ser humano para percibir su entorno sonoro, además de la habilidad de éste en la localización de fuentes sonoras en el espacio que le rodea. La HRTF biaural (terminología para referirse al conjunto de HRTF del oído izquierdo y del oído derecho) en sí misma, posee información de especial interés ya que las diferencias entre las HRTF de cada oído, conceden la información que nuestro sistema de audición utiliza en la percepción del campo sonoro. Por ello, la funcionalidad de la interfaz gráfica creada presenta gran provecho dentro del estudio de este campo. Las diferencias interaurales se caracterizan en amplitud y en tiempo, variando en función de la frecuencia. Mediante la transformada inversa de Fourier de la señal HRTF, se obtiene la repuesta al impulso de la cabeza, es decir, la HRIR (Head-Related Impulse Response). La cual, además de tener una gran utilidad en la creación de software o dispositivos de generación de sonido envolvente, se utiliza para obtener las diferencias ITD (Interaural Time Difference) e ILD (Interaural Time Difference), comúnmente denominados “parámetros de localización espacial”. La base de datos de HRTF contiene la información biaural de diferentes puntos de ubicación de la fuente sonora, formando una red de coordenadas esféricas que envuelve la cabeza del sujeto. Dicha red, según las medidas realizadas en la cámara anecoica de la EUITT (Escuela Universitaria de Ingeniería Técnica de Telecomunicación), presenta una precisión en elevación de 10º y en azimut de 5º. Los receptores son dos micrófonos alojados en el maniquí acústico llamado HATS (Hats and Torso Simulator) modelo 4100D de Brüel&Kjaer. Éste posee las características físicas que influyen en la percepción del entorno como son las formas del pabellón auditivo (pinna), de la cabeza, del cuello y del torso humano. Será necesario realizar los cálculos de interpolación para todos aquellos puntos no contenidos en la base de datos HRTF, este proceso es sumamente importante no solo para potenciar la capacidad de la misma sino por su utilidad para la comparación entre otras bases de datos existentes en el estudio de este ámbito. La interfaz gráfica de usuario está concebida para un manejo sencillo, claro y predecible, a la vez que interactivo. Desde el primer boceto del programa se ha tenido clara su filosofía, impuesta por las necesidades de un usuario que busca una herramienta práctica y de manejo intuitivo. Su diseño de una sola ventana reúne tanto los componentes de obtención de datos como los que hacen posible la representación gráfica de las HRTF, las HRIR y los parámetros de localización espacial, ITD e ILD. El usuario podrá ir alternando las representaciones gráficas a la vez que introduce las coordenadas de los puntos que desea visualizar, definidas por phi (elevación) y theta (azimut). Esta faceta de la interfaz es la que le otorga una gran facilidad de acceso y lectura de la información representada en ella. Además, el usuario puede introducir valores incluidos en la base de datos o valores intermedios a estos, de esta manera, se indica a la interfaz la necesidad de realizar la interpolación de los mismos. El método de interpolación escogido es el de la ponderación de la distancia inversa entre puntos. Dependiendo de los valores introducidos por el usuario se realizará una interpolación de dos o cuatro puntos, siendo éstos limítrofes al valor introducido, ya sea de phi o theta. Para añadir versatilidad a la interfaz gráfica de usuario, se ha añadido la opción de generar archivos de salida en forma de imagen de las gráficas representadas, de tal forma que el usuario pueda extraer los datos que le interese para cualquier valor de phi y theta. Se completa el presente proyecto fin de carrera con un trabajo de investigación y estudio comparativo de la función y la aplicación de las bases de datos de HRTF dentro del marco científico y de investigación. Esto ha hecho posible concentrar información relacionada a través de revistas científicas de investigación como la JAES (Journal of the Audio Engineering Society) o la ASA (Acoustical Society of America), además, del IEEE ( Institute of Electrical and Electronics Engineers) o la “Web of knowledge” entre otras. Además de realizar la búsqueda en estas fuentes, se ha optado por vías de información más comunes como Google Académico o el portal de acceso “Ingenio” a los todos los recursos electrónicos contenidos en la base de datos de la universidad. El estudio genera una ampliación en el conocimiento de la labor práctica de las HRTF. La mayoría de los estudios enfocan sus esfuerzos en mejorar la percepción del evento sonoro mediante su simulación en la escucha estéreo o multicanal. A partir de las HRTF, esto es posible mediante el análisis y el cálculo de datos como pueden ser las regresiones, siendo éstas muy útiles en la predicción de una medida basándose en la información de la actual. Otro campo de especial interés es el de la generación de sonido 3D. Mediante la base de datos HRTF es posible la simulación de una señal biaural. Se han diseñado algoritmos que son implementados en dispositivos DSP, de tal manera que por medio de retardos interaurales y de diferencias espectrales es posible llegar a un resultado óptimo de sonido envolvente, sin olvidar la importancia de los efectos de reverberación para conseguir un efecto creíble de sonido envolvente. Debido a la complejidad computacional que esto requiere, gran parte de los estudios coinciden en desarrollar sistemas más eficientes, llegando a objetivos tales como la generación de sonido 3D en tiempo real. ABSTRACT. This project involves the creation of a Graphic User Interface (GUI) in the Matlab environment which creates a graphic representation of the HRTF (Head-Related Transfer Function) database. The head transfer function is a very useful tool in the study of the capacity of human beings to perceive their sound environment, as well as their ability to localise sound sources in the area surrounding them. The binaural HRTF (terminology which refers to the HRTF group of the left and right ear) in itself possesses information of special interest seeing that the differences between the HRTF of each ear admits the information that our system of hearing uses in the perception of each sound field. For this reason, the functionality of the graphic interface created presents great benefits within the study of this field. The interaural differences are characterised in space and in time, varying depending on the frequency. By means of Fourier's transformed inverse of the HRTF signal, the response to the head impulse is obtained, in other words, the HRIR (Head-Related Impulse Response). This, as well as having a great use in the creation of software or surround sound generating devices, is used to obtain ITD differences (Interaural Time Difference) and ILD (Interaural Time Difference), commonly named “spatial localisation parameters”. The HRTF database contains the binaural information of different points of sound source location, forming a network of spherical coordinates which surround the subject's head. This network, according to the measures carried out in the anechoic chamber at the EUITT (School of Telecommunications Engineering) gives a precision in elevation of 10º and in azimuth of 5º. The receivers are two microphones placed on the acoustic mannequin called HATS (Hats and Torso Simulator) Brüel&Kjaer model 4100D. This has the physical characteristics which affect the perception of the surroundings which are the forms of the auricle (pinna), the head, neck and human torso. It will be necessary to make interpolation calculations for all those points which are not contained the HRTF database. This process is extremely important not only to strengthen the database's capacity but also for its usefulness in making comparisons with other databases that exist in the study of this field. The graphic user interface is conceived for a simple, clear and predictable use which is also interactive. Since the first outline of the program, its philosophy has been clear, based on the needs of a user who requires a practical tool with an intuitive use. Its design with only one window unites not only the components which obtain data but also those which make the graphic representation of the HRTFs possible, the hrir and the ITD and ILD spatial location parameters. The user will be able to alternate the graphic representations at the same time as entering the point coordinates that they wish to display, defined by phi (elevation) and theta (azimuth). The facet of the interface is what provides the great ease of access and reading of the information displayed on it. In addition, the user can enter values included in the database or values which are intermediate to these. It is, likewise, indicated to the interface the need to carry out the interpolation of these values. The interpolation method is the deliberation of the inverse distance between points. Depending on the values entered by the user, an interpolation of two or four points will be carried out, with these being adjacent to the entered value, whether that is phi or theta. To add versatility to the graphic user interface, the option of generating output files in the form of an image of the graphics displayed has been added. This is so that the user may extract the information that interests them for any phi and theta value. This final project is completed with a research and comparative study essay on the function and application of HRTF databases within the scientific and research framework. It has been possible to collate related information by means of scientific research magazines such as the JAES (Journal of the Audio Engineering Society), the ASA (Acoustical Society of America) as well as the IEEE (Institute of Electrical and Electronics Engineers) and the “Web of knowledge” amongst others. In addition to carrying out research with these sources, I also opted to use more common sources of information such as Academic Google and the “Ingenio” point of entry to all the electronic resources contained on the university databases. The study generates an expansion in the knowledge of the practical work of the HRTF. The majority of studies focus their efforts on improving the perception of the sound event by means of its simulation in stereo or multichannel listening. With the HRTFs, this is possible by means of analysis and calculation of data as can be the regressions. These are very useful in the prediction of a measure being based on the current information. Another field of special interest is that of the generation of 3D sound. Through HRTF databases it is possible to simulate the binaural signal. Algorithms have been designed which are implemented in DSP devices, in such a way that by means of interaural delays and wavelength differences it is possible to achieve an excellent result of surround sound, without forgetting the importance of the effects of reverberation to achieve a believable effect of surround sound. Due to the computational complexity that this requires, a great many studies agree on the development of more efficient systems which achieve objectives such as the generation of 3D sound in real time.
Resumo:
El presente documento de la RED TEMÁTICA FRUTURA de CYTED recoge las aportaciones de sus miembros al denominado 1er evento, celebrado en Sao Paulo en septiembre de 2009. El título asignado a dicho primer evento o reunión de los participantes, contiene el tema asignado a la Red Temática, es decir Desarrollo de un sistema integral de la mejora de la calidad y seguridad de las frutas durante la confección, el transporte y la comercialización mediante nuevas tecnologías de inspección y monitorización, y se refiere al análisis de temas actuales respecto de la Detección y caracterización de problemas asociados a la calidad: Los problemas y desafíos asociados con el transporte de fruta fresca para cada país participante, con especial atención a los países tropicales. Bajo este título se organizan unas sesiones técnicas, y visitas y presentaciones técnicas en instituciones de Sao Paulo y el EMBRAPA, que son las siguientes: Visita técnica a la Unidad de Instrumentación Agropecuaria en São Carlos/SP , sita a 300 km de São Paulo), y la visita técnica a la Central de Abastecimiento del Estado de São Paulo - CEAGESP/SP. Las contribuciones aquí recogidas se completaron con los puntos de vista expresados por la industria, en un coloquio de empresas, presidido por el Dr. Fernando Flores, con la participación de industriales, que abordaron sus puntos de vista sobre el tema: Los problemas del transporte de frutas y hortalizas, desde el punto de vista de la industria. De ellas se extrajo algunas conclusiones para tener en cuenta en las siguientes reuniones. La principal de ellas, fue que es fundamental a la hora de aconsejar mejoras en el transporte internacional de frutas contar con dicho punto de vista, lo que se tendrá en cuenta en los eventos siguientes de FRUTURA . Asociando países y contribuciones, se identificaron y describieron varios condicionamientos y problemas que aparecen durante el transporte de productos perecederos, en especial de frutas durante su transporte, y que se asocian a pérdidas de calidad: • Evaluar la problemática del transporte de frutas y hortalizas a mercados ubicados a gran distancia supone entender la fisiología del producto y conocer los cambios que puede sufrir durante la conservación y el transporte. Las pérdidas en el transporte de frutas se basan en condiciones ambientales no apropiadas a las que el producto se ve expuesto, tanto en transporte terrestre como en el aéreo, y se relaciona con instalaciones y equipos de frío insuficientes, e insuficientemente controlados. • La reglamentación de cada uno de los países receptores de fruta y hortalizas frescas afecta enormemente a los intercambios comerciales, y es un aspecto que debe ser estudiado especialmente, y a nivel internacional. Existen por ejemplo regulaciones cuarentenarias frente a plagas que requieren tratamientos específicos con altas exigencias tecnológicas. • Teniendo en cuenta que las condiciones óptimas, en especial de temperatura, son diferentes para cada producto. los amplísimos conocimientos y datos existentes a este respecto han de ser analizados y aplicados apropiadamente en los procesos de transporte. • Se establece el alto potencial de nuevas tecnologías como las RFID (Identificación por Radio Frecuencia) y WSN (Redes inalámbricas de Sensores) que hacen posible la supervisión/monitorización y el control de las condiciones del ambiente y del producto en el interior de contenedores de transporte. • El diseño y uso de envases adecuados al producto, el tipo de transporte, paletización, condiciones de frío y las especies frutícolas debe ser analizado cuidadosamente para grandes distancias. Por otro lado, aumenta de demanda de productos fáciles de preparar, siendo las frutas como manzana, pera y durazno mínimamente procesadas en fresco (MPF) una nueva alternativa para los consumidores. Sin embargo estas frutas MPF presentan una serie de daños durante su procesamiento que reducen su vida útil durante su transporte y comercialización, por lo que presentan exigencias especiales en su envasado, comercialización y almacenaje. • Se añade a la variabilidad y falta de calidad de las frutas en el mercado, las deficiencias en las fechas y condiciones de cosecha, de envasado, de tratamiento y de manejo en origen, y a lo largo de la cadena de distribución. • Debe asumirse en varios países y zonas productivas una falta de conocimientos de los productores, transportistas e intermediarios en la distribución. (Es un objetivo iniciar acciones de formación en este sentido, a través de FRUTURA). • Los problemas en las infraestructuras, se centran en varios aspectos de gran relevancia y en todo caso requieren ser optimizados si se persigue calidad y reducción de pérdidas: situación de las fincas, caminos, distancias, carreteras, puertos, aeropuertos, equipos de transporte (camiones, contenedores). Las capacidades y características de los centros de distribución, tales como los visitados CEAGESP de Sao Paulo y MERCAMADRID que representan un factor de enorme influencia en la comercialización de calidad, procesos y productos. Los artículos, al ser contribuciones de los miembros de los distintos países asociados a FRUTURA aportan datos, de la producción frutícola y de su transporte, específicos para algunos de los países participantes en el proyecto: Uruguay, Argentina, Brasil, Costa Rica y España. Los trabajos aquí recogidos se completan con las presentaciones expuestas en la reunión, y que se encuentran accesibles en la página web de FRUTURA: www.frutura.net. Finalmente, otra contribución relevante de estos trabajos es sus listados de bibliografía, los cuales ofrecen una información de gran valor dentro de los objetivos de FRUTURA.
Resumo:
Los receptores constituyen la puerta por donde el ser humano recibe información de su propio organismo y de su mundo exterior. Son los «sentidos», toda una teoría de órganos que producen en el sujeto las sensaciones de color, de sonido, de sabor, de tacto, pero también de dolor, de placer, de nivel de equilibrio o de movimiento, y que perciben constantemente e informan al sistema nervioso de cualquier alteración somática.
Resumo:
La implantación de la televisión digital en España ha supuesto un conjunto de desafíos técnicos y de orden práctico que se han ido acometiendo en multitud de ámbitos, desde la legislación que normaliza las infraestructuras comunes de telecomunicación hasta los cambios en las instalaciones y receptores donde el usuario final recibe los servicios. Por la complejidad y el carácter interdisciplinar de los conocimientos necesarios el aprendizaje de los titulados dentro del ámbito de la Telecomunicación supone también un reto importante. Este proyecto realiza una primera aproximación a un conjunto de herramientas hardware y software de ayuda a la enseñanza de esta amplia disciplina. El proyecto se ha realizado en torno a Labmu laboratorio multiusuario para prácticas de televisión digital de la empresa Xpertia. Se ha realizado para conocer y documentar sus posibilidades. También se ha documentado la tarjeta moduladora DTA-111 y el software para Windows StreamXpress. Estos sistemas ofrecen muchas posibilidades para la docencia de la televisión digital en todas las áreas desde la codificación fuente hasta la decodificación en el usuario final. En particular para ambos sistemas se han realizado pruebas en radiofrecuencia de emisiones de TDT. También se han establecido algunas ideas para trabajo futuro con estos sistemas. El proyecto se divide en seis capítulos: Capitulo 1: En el primer capítulo titulado Introducción se presenta el proyecto. Capítulo 2: En el segundo capítulo titulado Composición Hardware Labmu se presentan todos los componentes del laboratorio Labmu con la descripción de cada componente y sus características técnicas. Así mismo se presenta el interconexionado y configuración con que se ha trabajado. Capítulo 3: En el tercer capítulo titulado Software Labmu se describe como manual de usuario todos los componentes y posibilidades de software de Labmu. Capítulo 4: En el cuarto capítulo titulado Medidas con Labmu se realiza las medidas de MER, CBER, VBER, C/N y potencia de canal de los canales emitidos en la Comunidad de Madrid, comparando estas medidas con el analizador Promax Prodig-5. Capítulo 5: En el quinto capítulo titulado Tarjeta receptora y software se describe la tarjeta DTA-111 y el software StreamXpress, realizando medidas con el analizador Promax Prodig-5 introduciendo errores a la señal emitida por la tarjeta, y estudiando los niveles límites de visualización correcta. Capítulo 6: En el sexto y último capítulo titulado Conclusiones se presentan las conclusiones del proyecto y un plan de trabajo futuro ABSTRACT. The implantation of Digital Television in Spain (TDT) has implied a number of technical and practical challenges in several scopes. These challenges range from recommendations that standardize common telecommunications infrastructure to the changes in facilities where the end user receives digital services. The complexity and the interdisciplinary nature of skills that graduate Telecommunications students need to learn, is also a major challenge. This project is a first approach of a set of hard ware and software tools to help in the task of teaching this broad range discipline. The project has been carried out on Labmu, a multiuser Digital Television laboratory created by the Xpertia company. Its objectives are to understand and document this range of possibilities. DTA-111 modulator card and software for Windows StreamXpress have also been documented. These systems offer many options for teaching digital television in all areas, from source coding to end user decoding. In particular, both systems were tested on RF emissions in TDT. More over some ideas for future work with these systems have also foreseen. The project is structured in six chapters: Chapter1: This section Introduces the project. Chapter2: Titled “The Composition Hardware Labmu” presents Labmu lab components and provides descriptions for each component and its technical characteristics. It also presents the interconnection and configuration we have been using. Chapter3: Titled “Software Labmu” is a user manual, describing all components and software possibilities Labmu offers. Chapter4: Titled “Measures to Labmu” presents MER, CBER, VBER, C /N and channel power measures provided by Labmu in comparison with Promax Prodig-5 measures for all channels broad casting digital television services in the Community of Madrid. Chapter 5 Titled “Receiver card and software” describes DTA-111 card and software StreamXpress. Also the effects of errors insertion performed by this card are measured with the PromaxProdig-5 meter. Threes hold levels for correct reception are also studied. Chapter6: Entitled Conclusions presents the conclusions of the project and a plan for future work.
Resumo:
Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
El ciclo térmico natural de la célula y receptores en módulos CPV (Concentrated PhotoVoltaic) es considerado un punto débil en la operación de campo real de estos dispositivos, así como la fluctuación entre valores altos y bajos de niveles de irradiancia incidente en la célula, comúnmente causadas por nubes, produce un estrés termo-mecánico que puede ser motivo de fallo. La normativa IEC 6218 ha tenido en cuenta esta serie de problemas a la hora de diseñar una norma de calificación y homologación para módulos CPV. En concreto, este proyecto se va a basar en el test denominado "Thermal cycling test" que realiza un ciclo térmico en la base de la célula mientras se le inyectan pulsos de corriente. Sin embargo, este método produce un nivel de estrés un 50% menor que el estrés real en condiciones nominales. En este proyecto se diseña e implementa la máquina LYSS (Light cYcling Stress Source) que trata de realizar dos tipos de ciclos basados en el definido en la IEC 62108 con la variación de utilizar pulsos de luz directa a muy alta irradiancia focalizada en la parte activa de la célula en lugar de los pulsos de corriente mencionados. Con este método se pretende acelerar el proceso de degradación en la célula de manera que en tan solo 2 meses se pueda producir la misma que en 30 años de vida útil de la célula. En el primer tipo de ciclo la temperatura permanece constante durante la ejecución de los pulsos de luz y, en el segundo se realiza un ciclo térmico que varía entre una temperatura mínima y otra máxima durante estos pulsos. Además, se establece un criterio de fallo basado en la estimación de la resistencia serie de la célula a partir de los valores de su curva característica IV en condiciones de oscuridad. La metodología del proyecto realizado consiste en realizar un estudio detallado para identificar los componentes necesarios para construir la máquina, adquirirlos, llevar a cabo el montaje de éstos para que la máquina pueda implementar los ciclos diseñados, realizar los experimentos necesarios para caracterizar los diferentes dispositivos que componen la máquina, programar una aplicación de control, monitorización y adquisición de datos que comande la máquina, realizar una serie de pruebas basadas en uno de los ciclos térmico-luminosos diseñados a receptores solares de concentración reales y, por último, observar la degradación que se pudiera producirse en ésta conforme aumenta el número de ciclos realizados analizando su curva IV en condiciones de oscuridad y obteniendo conclusiones sobre la fiabilidad de la célula y/o el receptor CPV.
Resumo:
La tesis presenta el resultado de la investigación sobre la lectura histórica, territorial y espacial del problema del desplazamiento forzado por la violencia en Colombia asociado en particular a las condiciones del desplazado en Bogotá. Para ello el problema del desplazamiento se asume desde la perspectiva de los procesos migratorios como un proceso emergente asociado al impacto que tiene sobre el territorio rural colombiano, las regiones urbanizadas y las grandes ciudades como principales receptores de este tipo de población. La investigación analiza los procesos migratorios emergentes en Bogotá, desde una visión compleja y contemporánea de la ciudad y del territorio como resultado de la interacción entre lo regional y lo urbano. Para ello se desarrollan cuatro escenarios. El primero desde el impacto que tiene sobre el territorio el problema del desplazamiento forzoso y los procesos migratorios, el segundo desde la caracterización física y espacial de los sectores periféricos receptores, el tercero desde de la informalidad como constante en el proceso de migración y movilidad interna de este tipo de población, y finalmente, se asume la necesidad de identificar sobre la ciudad el carácter local como unidad mínima de control por parte del ciudadano. Desde una lectura histórica del territorio colombiano y la relación con el conflicto un armado con sesenta años de existencia, el trabajo analiza las circunstancias políticas, sociales y económicas que derivan las situaciones de conflicto y su impacto sobre los procesos migratorios: un territorio inmenso en sus recursos pero desequilibrado en su desarrollo. Por un lado, zonas productivas y en proceso de desarrollo bajo los márgenes y leyes convencionales del mundo contemporáneo global, y por otro, extensas zonas controladas por pocos, abandonadas por el Estado y desaprovechadas en sus recursos. Como resultado, se observa un país territorialmente sin una reforma agraria con una vocación productiva del campo, con niveles desiguales de crecimiento fragmentado geográficamente con una vetusta infraestructura. Sobre esto, el desplazamiento interno se presenta como una constante en la medida en que evoluciona el conflicto. Los índices migratorios aumentan o disminuyen en concordancia con los niveles de conflicto. De hecho, los municipios expulsores son aquellos con mayor presencia de actos de violencia. Para el análisis del problema del desplazamiento como fenómeno urbano, se toma como punto de referencia la visión contemporánea de la ciudad precisando la relación y comprensión de la complejidad en la disciplina urbanística. Teniendo en cuenta que la condición de desplazado plantea particularidades en la manera de apropiarse de la ciudad, la investigación se desarrolla analizando el impacto del conflicto armado sobre el territorio rural colombiano y como camino paralelo sobre la base de un alto porcentaje de desplazados interesados en permanecer en Bogotá, la condición estratégica de la periferia de la ciudad como principal espacio de residencia de esta población. Para poder identificar tanto los procesos de asentamiento como los patrones de movilidad, se realizaron encuestas en cinco localidades de Bogotá: Usme, Suba, Mártires, Usaquén y Bosa; escogidas por su ubicación geográfica, su condición periférica y por ser los lugares con mayor número de población registrada como desplazada, así como por el hecho de reconocerse como los principales centros de recepción de la ciudad. En la caracterización de las condiciones físicas y espaciales de unidades habitacionales de los barrios de origen informal se ha identificado y analizado algunas condiciones de habitabilidad en las alternativas en vivienda de la población desplazada como son albergues, los inquilinatos, los apartamentos o los cambuches. Para efectos de este análisis se ha realizado un muestro no probabilístico seleccionando en seis localidades con alta presencia de población desplazada algunas unidades habitacionales de diferente tipo. Finalmente este trabajo demuestra la necesidad de abrir un espacio de análisis desde la perspectiva física y espacial sobre la cual se plantea a nivel de conclusiones escenarios presentes y futuros sobre el problema del desplazamiento en Colombia y la repercusiones sobre el territorio.
Resumo:
Esta Tesis Doctoral trata sobre la caracterización acústica de los ecosistemas naturales y la evaluación del impacto ambiental del ruido antropogénico sobre sus potenciales receptores en estos lugares, incluidos los receptores no humanos y sus efectos ecológicos, además, analiza las implicaciones para su gestión a distintas escalas y se lleva a cabo una valoración económica. Este trabajo ofrece soluciones para caracterizar los paisajes sonoros de forma compatible con distintas escalas de trabajo, nivel de esfuerzo técnico y en contextos de recursos limitados que haga viable su tratamiento como cualquier otra variable ambiental en el ámbito de la conservación y gestión del medio natural. Se han adaptado herramientas y metodologías propias de disciplinas como la acústica ambiental, bioacústica y ecología del paisaje, para servir a los objetivos específicos de la evaluación y gestión de los paisajes sonoros y el ruido ambiental en amplias extensiones geográficas. Se ha establecido un método general de muestreo sistemático para trabajo de campo y también se han adaptado métodos de modelización informática, que permiten analizar escenarios sonoros dinámicos en el tiempo y en el espacio, desde localizaciones puntuales hasta la escala del paisaje. Es posible elaborar cartografía ambiental con esta información y se ha representado gráficamente la zona de influencia de distintas fuentes de ruido sobre la calidad de distintos hábitats faunísticos. Se recomienda el uso del indicador del nivel de presión sonora equivalente (Leq) por su operatividad en medición y modelización, y su adaptabilidad a cualquier dimensión espacial y temporal que se requiera, por ejemplo en función del paisaje, actividades o especies que se establezcan como objeto de análisis. Se ha comprobado que las voces y conversaciones de parte de los excursionistas en zonas de reposo, observación y descanso (Laguna Grande de Peñalara) es la fuente de ruido que con mayor frecuencia identifican los propios visitantes (51%) y causa un incremento del nivel de presión sonora equivalente de unos 4,5 dBA sobre el nivel correspondiente al ambiente natural (Lnat). También se ha comprobado que carreteras con bajo nivel de tráfico (IMD<1000) pueden causar estrés fisiológico sobre la fauna y afectar a la calidad de sus hábitats. La isófona de 30 dBA del índice Leq (24h) permite dividir a los corzos de la zona de estudio en dos grupos con diferente nivel de estrés fisiológico, más elevado en los que se sitúan más cerca de la carretera con mayor volumen de tráfico y se expone a mayores niveles de ruido. Por otro lado, ha sido posible delimitar una zona de exclusión para la nidificación de buitre negro alrededor de las carreteras, coincidente con la isófona Leq (24h) de 40 dBA que afecta al 11% de su hábitat potencial. Además se ha llevado a cabo una novedosa valoración económica de la contaminación acústica en espacios naturales protegidos, mediante el análisis de la experiencia sonora de los visitantes del antiguo Parque Natural de Peñalara, y se ha constatado su disposición al pago de una entrada de acceso a estos lugares (aproximadamente 1 euro) si redundara en una mejora de su estado de conservación. En conclusión, los espacios naturales protegidos pueden sufrir un impacto ambiental significativo causado por fuentes de ruido localizadas en su interior pero también lejanas a ellos, que se sitúan fuera del ámbito de competencias de sus gestores. Sucesos sonoros como el sobrevuelo de aviones pueden incrementar en aproximadamente 8 dBA el nivel de referencia Lnat en las zonas tranquilas del parque. Se recomienda llevar a cabo una gestión activa del medio ambiente sonoro y se considera necesario extender la investigación sobre los efectos ecológicos del ruido ambiental a otros lugares y especies animales. ABSTRACT This PhD Thesis deals with acoustic characterization of natural ecosystems and anthropogenic noise impact assessment on potential receivers, including non-human receivers and their ecological effects. Besides, its management implications at different scales are analyzed and an economic valuation is performed. This study provides solutions for characterizing soundscapes in a compatible way with different working scales, level of technical effort and in a context of limited resources, so its treatment becomes feasible as for any other environmental variable in conservation and environmental management. Several tools and methodologies have been adapted from a variety of disciplines such as environmental acoustics, bioacoustics and landscape ecology, to better serve the specific goals of assessing and managing soundscapes and environmental noise in large areas. A procedure has been established for systematic field measurement surveys and noise common computer modelling methods have also been adapted in order to analyze dynamic soundscapes across time and space, from local to landscape scales. It is possible to create specific thematic cartography as for instance delimiting potential influence zone from different noise sources on animal habitats quality. Use of equivalent continuous sound pressure level index (Leq) is recommended because it provides great flexibility in operation for noise measurement and modelling, and because of its adaptability to any required temporal and spatial dimension, for instance landscape, activities or the target species established as study subjects. It has been found that human voices and conversations in a resting and contemplation area (Laguna Grande de Peñalara) is the most frequently referred noise source by national park visitors (51 %) when asked. Human voices alter this recreational area by increasing the sound pressure level approximately 4.5 dBA over the natural ambient level (Lnat). It has also been found that low traffic roads (AADT<1000 ) may cause physiological stress on wildlife and affect the quality of their habitats. It has also been possible to define a road-effect zone by noise mapping, which suggests an effective habitat loss within the Leq (24h) 30 dBA isophone in case of Roe deer and also divide the study area in two groups with different physiological stress level, higher for those exposed to higher noise levels and traffic volume. On the other hand, it has been possible to determine an exclusion area for Cinereous vulture nesting surrounding roads which is coincident with the Leq (24h) 40 dBA isophone and affects 11 % of the vulture potential habitat. It has also been performed an economic estimation of noise pollution impact on visitors’ perception and results showed that visitors would be willing to pay an entrance fee of approximately 1 euro if such payment is really bringing an improvement of the conservation status. In conclusion, protected areas may be significantly affected by anthropogenic noise sources located within the park borders but perturbations may also be caused by large-distance noise sources outside the park managers’ jurisdiction. Aircraft overflight events disrupted quietness and caused Leq increases of almost 8 dBA during a monitoring period with respect to Lnat reference levels in the park quiet areas. It is recommended to actively manage the acoustic environment. Finally, further research on ecological impacts of environmental noise needs to be extended to other species and places.
Resumo:
La Tesis Doctoral surge debida de los problemas de contaminación ambientales que presentan los efluentes líquidos refinería del petróleo y las industrias de extracción del petróleo crudo en la zona costera de Angola principalmente en las provincias de Cabinda, Zaire y Luanda, en las cuales sus vertidos destruyen la flora y fauna acuática. El objetivo de este trabajo consiste en implementar nuevas técnicas de los procesos de oxidación avanzada para el tratamiento de los efluentes líquidos de refinerías de petróleo, que permitan conseguir una calidad adecuada de los vertidos. Este sector se considera como una fuente de contaminación del medio ambiente, que requiere un control estricto y un tratamiento adecuado para la eliminación de los contaminantes existente en este tipo de agua y posteriormente poder reutilizar estas aguas tratadas para otros fines industriales o verter a los cauces receptores que al menos no perjudique a los ecosistemas. En esta tesis se ha investigado las técnicas más modernas de los procesos de oxidación avanzada para el tratamiento de agua residual de refinería de petróleo, así como: 1) ozonización, 2) peróxido de hidrógeno con ozono, y 3) ultravioleta con ozono. Los resultados obtenidos en este trabajo muestran que el proceso de ozonización simple, ha dado mejores resultados para el tratamiento de este tipo agua residual de petróleo, tanto, en la eliminación de materia orgánica y los fenoles presentes en el agua residual. En la primera fase, con 1 litro de muestra, se alcanzó un rendimiento del 80% en la eliminación de la DQO utilizando 5,97 mg/l de dosis de ozono, con 11 minutos de tiempo de contacto. Respecto a los fenoles se alcanzó una eliminación del 100 % con la misma dosis de ozono y con 11 minutos de tiempo de contacto. En la segunda fase, con 4 litros de muestra, se alcanzó un rendimiento del 66% de la DQO utilizando 22,21 mg/l de dosis de ozono, con 15 minutos de tiempo de contacto y el rendimiento en la eliminación de los fenoles fue de 90 % a las mismas condiciones. The doctoral thesis arises because of environmental pollution problems posed by liquid effluents and oil refinery industries extraction of crude oil in the coastal area of Angola mainly in the provinces of Cabinda, Zaire and Luanda, in which their discharges destroy aquatic flora and fauna. The objective of this work is to implement new techniques of advanced oxidation processes for the treatment of liquid effluents of oil refineries that will achieve an adequate quality of discharges. This sector is considered as a source of environmental pollution, which requires close monitoring and appropriate treatment for the removal of existing contaminants in this water and then treated to reuse this water for other industrial purposes or discharging into streams receptors that at least does not harm ecosystems. In this thesis we investigate the most modern techniques of advanced oxidation processes for treatment of wastewater from oil refinery and: 1) ozonation, 2) hydrogen peroxide, ozone, and 3) radiation with ozone. The results obtained in this study show that the ozonation process simple, has yielded better results for treating wastewater of this type of oil, so the removal of phenols and organic matter present in the wastewater. In the first phase, with 1 liter of sample was reached in 80% yield COD removal using 5.97 mg/l ozone dosage, with 11 minutes of contact time. Regarding phenols elimination was achieved of 100% with the same dose of ozone and 11 minutes contact time In the second phase, with sample 4 liters was reached in 66% yield using 22.21 COD mg / l ozone dosage, with 15 minutes of contact time and the performance in the removal of phenols was of 90% at the same conditions.
Resumo:
Existe un movimiento imparable en Madrid de diversos colectivos que están transformando espacios degradados y sin uso en huertos urbanos. La sociedad civil se organiza y se apropia de parte del espacio público que las administraciones no tienen capacidad de mantener. Surge así un proceso de empoderamiento ciudadano que rompe la dicotomía entre espacio público y espacio privado generando el concepto de espacio colectivo donde su concepción, realización y cuidado recae en manos de ciudadanos. Pasan de ser receptores de servicios municipales a convertirse en actores de un espacio que sienten como propio. De esta manera el diseño del espacio público se convierte en un proceso participativo. Se desarrolla en el tiempo más allá del habitual diseño inicial desligado de los futuros destinatarios que termina con la ejecución de lo diseñado. Se trata de procesos dinámicos que tienen mayor capacidad de corregir los desaciertos y de adaptarse a unas necesidades cambiantes. Estas iniciativas están aglutinándose en la Red de Huertos Urbanos de Madrid con una diversidad de situaciones tanto en los grupos promotores de los huertos, como en la titularidad de los solares en los que se implantan. Esta unión da visibilidad al movimiento y le dota de fortaleza para negociar con la administración municipal que se está planteando regular el fenómeno con una ordenanza municipal. El resultado plástico de las iniciativas también es diverso con la incorporación de murales en algunos casos (Esta es una plaza, Aliseda 18), diseño arquitectónico del espacio (Canillejas imagina un parque, Campo de Cebada) o sencillamente con la estética que aportan las distintas especies hortícolas a una urbe donde la naturaleza recibe un tratamiento basado en el concepto de jardín controlado. El grupo de investigación AA.OO Arquitecturas Ocasionales aúna el estudio teórico del proceso con el desarrollo práctico de una iniciativa: Aliseda 18.
Resumo:
La nitrificación-desnitrificación es el proceso biológico tradicional para la remoción de nitrógeno de las aguas residuales (Ruiz G. et al., 2006a), siendo fundamental ya que contribuye a controlar la eutroficación de los cuerpos receptores. Debido al deterioro que sobre la disponibilidad de los recursos han ejercido las actividades antropogénicas, es necesario orientar el tratamiento de las aguas residuales hacia tecnologías que ofrezcan el mayor grado de sustentabilidad, planteando innovaciones en el tratamiento. El presente proyecto de tesis doctoral versa sobre el estudio de la influencia de la relación C/N en la desnitrificación y metanogénesis de aguas residuales urbanas en un reactor anaeróbico de lecho fluidizado inverso (RLFI). Previamente a la realización de las pruebas experimentales de variación de la relación C/N, se llevó a cabo la etapa de arranque del RLFI la cual se inició en modo batch, favoreciendo la formación y adhesión de biopelícula al medio de soporte utilizado (Extendosphere). Después, sobrevino la operación en modo continuo desde una carga volumétrica aplicada (CVA) de 0.5 g DQOs/L⋅d hasta alcanzar 4 g DQOs/L⋅d, carga volumétrica a la cual se logró la plena estabilización del reactor, siendo la alta variabilidad de la concentración de DQOs en el agua residual urbana de alimentación, la principal problemática que ocasionó retrasos en la estabilidad del reactor. A una CVA de 4 g DQOs/L⋅d en estado estacionario, el valor mínimo de eficiencia de remoción de DQOs fue del 32.36% y el máximo de 66.99%. En estas condiciones el porcentaje de metano presente en el biogás producido tuvo un valor medio de 85.57 ± 2.93%, siendo un valor alto comparado con otros porcentajes de metano encontrados en la digestión anaerobia de aguas residuales urbanas. El YCH4 tuvo un valor medio de 0.316 ± 0.110 LCH4/g DQOrem⋅día. Los porcentajes de metanización variaron en el rango de 20.50 a 100%, registrándose un valor medio de 73.42 ± 25.63%. La considerable variabilidad en el porcentaje de metanización se debió principalmente a que se presentaron eventos de lavado de soporte colonizado, lo cual propició que las actividades metabólicas fueran orientadas hacia formación de biopelícula (anabolismo) en vez de estar dirigidas hacia producción de metano (catabolismo). En relación a los ensayos con variación de la relación C/N, se manejaron relaciones DQOs/N-NO3 en el rango de 1.65 a 21.1 g DQOs/g N-NO3. La tasa de remoción anaerobia de DQOs se incrementó con la concentración de sustrato en una relación casi lineal, ajustándose a una cinética de primer orden, lo que regularmente se presenta a concentraciones bajas de sustrato. La eficiencia del proceso de desnitrificación fue por lo regular alta, incrementándose ligeramente con la concentración de DQOs en el influente, con valores en el rango de 73.8 a 99.1%. Por otra parte, la tasa de remoción por metanogénesis se incrementó con la concentración relativa de sustrato (es decir, a mayores relaciones DQOs/N-NO3), siendo más sensitiva la metanogénesis a la concentración relativa de sustrato que la desnitrificación. Conforme aumentó la relación DQOs/N-NO3, la desnitrificación, de ser la ruta metabólica principal de utilización de la materia orgánica (comparada con la metanización), empezó a combinarse con la metanización. De manera evidente, a las relaciones DQOs/N-NO3 probadas, se manifestaron más las actividades desnitrificantes, quedando reflejadas por el alto porcentaje de utilización de la DQOs removida hacia la desnitrificación. La relación experimental DQOs/N-NO3 a la cual se pudiera haber cumplido con el requerimiento de materia orgánica (en términos de DQOs) para la desnitrificación de nitratos en las aguas residuales urbanas tratadas resultó aproximadamente ser igual a 7.1 g DQOs/g N-NO3. A una CVA de 4 g DQOs/L⋅d, se obtuvo un diámetro promedio máximo de soporte colonizado igual a 266.106 ± 69.279 μm aunque, hay que indicarlo, se presentaron fluctuaciones, las cuales se reflejaron también en el espesor de la biopelícula, el cual tuvo un valor máximo de 50.099 μm y un valor promedio de 37.294 ± 11.199 μm. Estas fluctuaciones pudieron deberse a la existencia de corrientes preferenciales dentro del reactor, las cuales no permitieron un acceso equitativo del sustrato a todo el lecho. Nitrification-denitrification is the traditional biological process for nitrogen removal from wastewaters (Ruiz G. et al., 2006a), being fundamental since it contributes to control the eutrophication of the receiving waters. Due to the deterioration that on the availability of the aquatic resources the anthropogenic activities have exerted, it is necessary to orient the treatment of wastewaters towards technologies that offer the greater degree of sustainability, raising innovations in the treatment. This work studied the influence of C/N ratio on denitrification and methanogenesis of urban wastewaters in an inverse fluidized bed reactor (IFBR). Previously to the accomplishment of the experimental tests with variation of C/N ratio, the start up of the IFBR was carried out in batch way, encouraging the formation and adhesion of biofilm to Extendosphere, which it was used as support. The operation in continuous way carried out from an organic loading rate (OLR) of 0.5 g CODs/L ∙ d to 4 g CODs/L ∙ d, when the steady-state was reached. The high variability of the CODs of the urban wastewaters caused delays in the stability of the reactor. Once stationary state was reached, the removal efficiency of CODs ranged from 32.36 to 66.99% to 4 g CODs/L ∙ d. In these conditions the percentage of methane in produced biogas had an average value of 85.57 ± 2.93%, being a high value compared with other studies treating anaerobically urban wastewaters. The YCH4 had an average value of 0.316 ± 0.110 LCH4/g CODrem ∙ d. The percentage of methanisation ranged from 20.50 to 100%, with an average value of 73.42 ± 25.63%. The considerable variability in the methanisation percentage occurred mainly due events of wash-out of colonized support, which caused that the metabolic activities were oriented towards formation of biofilm (anabolism) instead of methane production (catabolism). Concerning the tests with variation of C/N ratio, CODs/NO3-N ratios from 1.65 to 21.1 g CODs/g NO3-N were proved. The CODs anaerobic removal rate increased with the substrate concentration in an almost linear relation, adjusting to a kinetic of first order, which regularly appears to low concentrations of substrate. Efficiency of the denitrification process was regularly high, and it increased slightly with the CODs concentration in the influent, ranging from 73.8 to 99.1%. On the other hand, the CODs removal rate by methanogenesis increased with the substrate relative concentration (e.g., to greater CODs/NO3-N ratios), being more sensitive the methanogenesis to the substrate relative concentration that the denitrification. When the CODs/NO3-N ratio increased, the denitrification, of being the main metabolic route of use of the organic matter (compared with the methanogenesis), began to be combined with the methanogenesis. Definitively, to the proven CODs/NO3-N ratios the denitrification processes were more pronounced, being reflected by the high percentage of use of the removed CODs towards denitrification. The experimental CODs/NO3-N ratio to which it was possible to have been fulfilled the requirement of organic matter (in terms of CODs) for the denitrification of nitrates in urban wastewaters turned out to be approximately 7.1 g CODs/g NO3-N. It was obtained a maximum average diameter of colonized support of 266.106 ± 69.279 μm to 4 g CODs/L ∙ d, although it is necessary to indicate that appeared fluctuations in the thickness of biofilm, which had a maximum value of 50.099 μm and an average value of 37.294 ± 11.199 μm. These fluctuations could be due to the existence of preferential currents within the reactor, which did not allow an equitable access of the substrate to all the bed.
Resumo:
El objetivo principal de esta tesis ha sido el diseño y la optimización de receptores implementados con fibra óptica, para ser usados en redes ópticas de alta velocidad que empleen formatos de modulación de fase. En los últimos años, los formatos de modulación de fase (Phase Shift keying, PSK) han captado gran atención debido a la mejora de sus prestaciones respecto a los formatos de modulación convencionales. Principalmente, presentan una mejora de la eficiencia espectral y una mayor tolerancia a la degradación de la señal causada por la dispersión cromática, la dispersión por modo de polarización y los efectos no-lineales en la fibra óptica. En este trabajo, se analizan en detalle los formatos PSK, incluyendo sus variantes de modulación de fase diferencial (Differential Phase Shift Keying, DPSK), en cuadratura (Differential Quadrature Phase Shift Keying, DQPSK) y multiplexación en polarización (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), con la finalidad de diseñar y optimizar los receptores que permita su demodulación. Para ello, se han analizado y desarrollado nuevas estructuras que ofrecen una mejora en las prestaciones del receptor y una reducción de coste comparadas con las actualmente disponibles. Para la demodulación de señales DPSK, en esta tesis, se proponen dos nuevos receptores basados en un interferómetro en línea Mach-Zehnder (MZI) implementado con tecnología todo-fibra. El principio de funcionamiento de los MZI todo-fibra propuestos se asienta en la interferencia modal que se produce en una fibra multimodo (MMF) cuando se situada entre dos monomodo (SMF). Este tipo de configuración (monomodo-multimodo-monomodo, SMS) presenta un buen ratio de extinción interferente si la potencia acoplada en la fibra multimodo se reparte, principal y equitativamente, entre dos modos dominantes. Con este objetivo, se han estudiado y demostrado tanto teórica como experimentalmente dos nuevas estructuras SMS que mejoran el ratio de extinción. Una de las propuestas se basa en emplear una fibra multimodo de índice gradual cuyo perfil del índice de refracción presenta un hundimiento en su zona central. La otra consiste en una estructura SMS con las fibras desalineadas y donde la fibra multimodo es una fibra de índice gradual convencional. Para las dos estructuras, mediante el análisis teórico desarrollado, se ha demostrado que el 80 – 90% de la potencia de entrada se acopla a los dos modos dominantes de la fibra multimodo y se consigue una diferencia inferior al 10% entre ellos. También se ha demostrado experimentalmente que se puede obtener un ratio de extinción de al menos 12 dB. Con el objeto de demostrar la capacidad de estas estructuras para ser empleadas como demoduladores de señales DPSK, se han realizado numerosas simulaciones de un sistema de transmisión óptico completo y se ha analizado la calidad del receptor bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo o la tolerancia a las dispersiones cromática y por modo de polarización. En todos los casos se ha concluido que los receptores propuestos presentan rendimientos comparables a los obtenidos con receptores convencionales. En esta tesis, también se presenta un diseño alternativo para la implementación de un receptor DQPSK, basado en el uso de una fibra mantenedora de la polarización (PMF). A través del análisi teórico y del desarrollo de simulaciones numéricas, se ha demostrado que el receptor DQPSK propuesto presenta prestaciones similares a los convencionales. Para complementar el trabajo realizado sobre el receptor DQPSK basado en PMF, se ha extendido el estudio de su principio de demodulación con el objeto de demodular señales PM-DQPSK, obteniendo como resultado la propuesta de una nueva estructura de demodulación. El receptor PM-DQPSK propuesto se basa en la estructura conjunta de una única línea de retardo junto con un rotador de polarización. Se ha analizado la calidad de los receptores DQPSK y PM-DQPSK bajo diferentes perspectivas, tales como la sensibilidad, la tolerancia a un filtrado óptico severo, la tolerancia a las dispersiones cromática y por modo de polarización o su comportamiento bajo condiciones no-ideales. En comparación con los receptores convencionales, nuestra propuesta exhibe prestaciones similares y además permite un diseño más simple que redunda en un coste potencialmente menor. En las redes de comunicaciones ópticas actuales se utiliza la tecnología de multimplexación en longitud de onda (WDM) que obliga al uso de filtros ópticos con bandas de paso lo más estrechas posibles y a emplear una serie de dispositivos que incorporan filtros en su arquitectura, tales como los multiplexores, demultiplexores, ROADMs, conmutadores y OXCs. Todos estos dispositivos conectados entre sí son equivalentes a una cadena de filtros cuyo ancho de banda se va haciendo cada vez más estrecho, llegando a distorsionar la forma de onda de las señales. Por esto, además de analizar el impacto del filtrado óptico en las señales de 40 Gbps DQPSK y 100 Gbps PM-DQPSK, este trabajo de tesis se completa estudiando qué tipo de filtro óptico minimiza las degradaciones causadas en la señal y analizando el número máximo de filtros concatenados que permiten mantener la calidad requerida al sistema. Se han estudiado y simulado cuatro tipos de filtros ópticos;Butterworth, Bessel, FBG y F-P. ABSTRACT The objective of this thesis is the design and optimization of optical fiber-based phase shift keying (PSK) demodulators for high-bit-rate optical networks. PSK modulation formats have attracted significant attention in recent years, because of the better performance with respect to conventional modulation formats. Principally, PSK signals can improve spectrum efficiency and tolerate more signal degradation caused by chromatic dispersion, polarization mode dispersion and nonlinearities in the fiber. In this work, many PSK formats were analyzed in detail, including the variants of differential phase modulation (Differential Phase Shift Keying, DPSK), in quadrature (Differential Quadrature Phase Shift Keying, DQPSK) and polarization multiplexing (Polarization Multiplexing Differential Quadrature Phase Shift Keying, PM-DQPSK), in order to design and optimize receivers enabling demodulations. Therefore, novel structures, which offer good receiver performances and a reduction in cost compared to the current structures, have been analyzed and developed. Two novel receivers based on an all-fiber in-line Mach-Zehnder interferometer (MZI) were proposed for DPSK signal demodulation in this thesis. The operating principle of the all-fiber MZI is based on the modal interference that occurs in a multimode fiber (MMF) when it is located between two single-mode fibers (SMFs). This type of configuration (Single-mode-multimode-single-mode, SMS) can provide a good extinction ratio if the incoming power from the SMF could be coupled equally into two dominant modes excited in the MMF. In order to improve the interference extinction ratio, two novel SMS structures have been studied and demonstrated, theoretically and experimentally. One of the two proposed MZIs is based on a graded-index multimode fiber (MMF) with a central dip in the index profile, located between two single-mode fibers (SMFs). The other one is based on a conventional graded-index MMF mismatch spliced between two SMFs. Theoretical analysis has shown that, in these two schemes, 80 – 90% of the incoming power can be coupled into the two dominant modes exited in the MMF, and the power difference between them is only ~10%. Experimental results show that interference extinction ratio of 12 dB could be obtained. In order to demonstrate the capacity of these two structures for use as DPSK signal demodulators, numerical simulations in a completed optical transmission system have been carried out, and the receiver quality has been analyzed under different perspectives, such as sensitivity, tolerance to severe optical filtering or tolerance to chromatic and polarization mode dispersion. In all cases, from the simulation results we can conclude that the two proposed receivers can provide performances comparable to conventional ones. In this thesis, an alternative design for the implementation of a DQPSK receiver, which is based on a polarization maintaining fiber (PMF), was also presented. To complement the work made for the PMF-based DQPSK receiver, the study of the demodulation principle has been extended to demodulate PM-DQPSK signals, resulting in the proposal of a novel demodulation structure. The proposed PM-DQPSK receiver is based on only one delay line and a polarization rotator. The quality of the proposed DQPSK and PM-DQPSK receivers under different perspectives, such as sensitivity, tolerance to severe optical filtering, tolerance to chromatic dispersion and polarization mode dispersion, or behavior under non-ideal conditions. Compared with the conventional receivers, our proposals exhibit similar performances but allow a simpler design which can potentially reduce the cost. The wavelength division multiplexing (WDM) technology used in current optical communications networks requires the use of optical filters with a passband as narrow as possible, and the use of a series of devices that incorporate filters in their architecture, such as multiplexers, demultiplexers, switches, reconfigurable add-drop multiplexers (ROADMs) and optical cross-connects (OXCs). All these devices connected together are equivalent to a chain of filters whose bandwidth becomes increasingly narrow, resulting in distortion to the waveform of the signals. Therefore, in addition to analyzing the impact of optical filtering on signal of 40 Gbps DQPSK and 100 Gbps PM-DQPSK, we study which kind of optical filter minimizes the signal degradation and analyze the maximum number of concatenated filters for maintaining the required quality of the system. Four types of optical filters, including Butterworth, Bessel, FBG and FP, have studied and simulated.
Contribución a la caracterización espacial de canales con sistemas MIMO-OFDM en la banda de 2,45 Ghz
Resumo:
La tecnología de múltiples antenas ha evolucionado para dar soporte a los actuales y futuros sistemas de comunicaciones inalámbricas en su afán por proporcionar la calidad de señal y las altas tasas de transmisión que demandan los nuevos servicios de voz, datos y multimedia. Sin embargo, es fundamental comprender las características espaciales del canal radio, ya que son las características del propio canal lo que limita en gran medida las prestaciones de los sistemas de comunicación actuales. Por ello surge la necesidad de estudiar la estructura espacial del canal de propagación para poder diseñar, evaluar e implementar de forma más eficiente tecnologías multiantena en los actuales y futuros sistemas de comunicación inalámbrica. Las tecnologías multiantena denominadas antenas inteligentes y MIMO han generado un gran interés en el área de comunicaciones inalámbricas, por ejemplo los sistemas de telefonía celular o más recientemente en las redes WLAN (Wireless Local Area Network), principalmente por la mejora que proporcionan en la calidad de las señales y en la tasa de transmisión de datos, respectivamente. Las ventajas de estas tecnologías se fundamentan en el uso de la dimensión espacial para obtener ganancia por diversidad espacial, como ya sucediera con las tecnologías FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access) y CDMA (Code Division Multiplexing Access) para obtener diversidad en las dimensiones de frecuencia, tiempo y código, respectivamente. Esta Tesis se centra en estudiar las características espaciales del canal con sistemas de múltiples antenas mediante la estimación de los perfiles de ángulos de llegada (DoA, Direction-of- Arrival) considerando esquemas de diversidad en espacio, polarización y frecuencia. Como primer paso se realiza una revisión de los sistemas con antenas inteligentes y los sistemas MIMO, describiendo con detalle la base matemática que sustenta las prestaciones ofrecidas por estos sistemas. Posteriormente se aportan distintos estudios sobre la estimación de los perfiles de DoA de canales radio con sistemas multiantena evaluando distintos aspectos de antenas, algoritmos de estimación, esquemas de polarización, campo lejano y campo cercano de las fuentes. Así mismo, se presenta un prototipo de medida MIMO-OFDM-SPAA3D en la banda ISM (Industrial, Scientific and Medical) de 2,45 Ghz, el cual está preparado para caracterizar experimentalmente el rendimiento de los sistemas MIMO, y para caracterizar espacialmente canales de propagación, considerando los esquemas de diversidad espacial, por polarización y frecuencia. Los estudios aportados se describen a continuación. Los sistemas de antenas inteligentes dependen en gran medida de la posición de los usuarios. Estos sistemas están equipados con arrays de antenas, los cuales aportan la diversidad espacial necesaria para obtener una representación espacial fidedigna del canal radio a través de los perfiles de DoA (DoA, Direction-of-Arrival) y por tanto, la posición de las fuentes de señal. Sin embargo, los errores de fabricación de arrays así como ciertos parámetros de señal conlleva un efecto negativo en las prestaciones de estos sistemas. Por ello se plantea un modelo de señal parametrizado que permite estudiar la influencia que tienen estos factores sobre los errores de estimación de DoA, tanto en acimut como en elevación, utilizando los algoritmos de estimación de DOA más conocidos en la literatura. A partir de las curvas de error, se pueden obtener parámetros de diseño para sistemas de localización basados en arrays. En un segundo estudio se evalúan esquemas de diversidad por polarización con los sistemas multiantena para mejorar la estimación de los perfiles de DoA en canales que presentan pérdidas por despolarización. Para ello se desarrolla un modelo de señal en array con sensibilidad de polarización que toma en cuenta el campo electromagnético de ondas planas. Se realizan simulaciones MC del modelo para estudiar el efecto de la orientación de la polarización como el número de polarizaciones usadas en el transmisor como en el receptor sobre la precisión en la estimación de los perfiles de DoA observados en el receptor. Además, se presentan los perfiles DoA obtenidos en escenarios quasiestáticos de interior con un prototipo de medida MIMO 4x4 de banda estrecha en la banda de 2,45 GHz, los cuales muestran gran fidelidad con el escenario real. Para la obtención de los perfiles DoA se propone un método basado en arrays virtuales, validado con los datos de simulación y los datos experimentales. Con relación a la localización 3D de fuentes en campo cercano (zona de Fresnel), se presenta un tercer estudio para obtener con gran exactitud la estructura espacial del canal de propagación en entornos de interior controlados (en cámara anecóica) utilizando arrays virtuales. El estudio analiza la influencia del tamaño del array y el diagrama de radiación en la estimación de los parámetros de localización proponiendo, para ello, un modelo de señal basado en un vector de enfoque de onda esférico (SWSV). Al aumentar el número de antenas del array se consigue reducir el error RMS de estimación y mejorar sustancialmente la representación espacial del canal. La estimación de los parámetros de localización se lleva a cabo con un nuevo método de búsqueda multinivel adaptativo, propuesto con el fin de reducir drásticamente el tiempo de procesado que demandan otros algoritmos multivariable basados en subespacios, como el MUSIC, a costa de incrementar los requisitos de memoria. Las simulaciones del modelo arrojan resultados que son validados con resultados experimentales y comparados con el límite de Cramer Rao en términos del error cuadrático medio. La compensación del diagrama de radiación acerca sustancialmente la exactitud de estimación de la distancia al límite de Cramer Rao. Finalmente, es igual de importante la evaluación teórica como experimental de las prestaciones de los sistemas MIMO-OFDM. Por ello, se presenta el diseño e implementación de un prototipo de medida MIMO-OFDM-SPAA3D autocalibrado con sistema de posicionamiento de antena automático en la banda de 2,45 Ghz con capacidad para evaluar la capacidad de los sistemas MIMO. Además, tiene la capacidad de caracterizar espacialmente canales MIMO, incorporando para ello una etapa de autocalibración para medir la respuesta en frecuencia de los transmisores y receptores de RF, y así poder caracterizar la respuesta de fase del canal con mayor precisión. Este sistema incorpora un posicionador de antena automático 3D (SPAA3D) basado en un scanner con 3 brazos mecánicos sobre los que se desplaza un posicionador de antena de forma independiente, controlado desde un PC. Este posicionador permite obtener una gran cantidad de mediciones del canal en regiones locales, lo cual favorece la caracterización estadística de los parámetros del sistema MIMO. Con este prototipo se realizan varias campañas de medida para evaluar el canal MIMO en términos de capacidad comparando 2 esquemas de polarización y tomando en cuenta la diversidad en frecuencia aportada por la modulación OFDM en distintos escenarios. ABSTRACT Multiple-antennas technologies have been evolved to be the support of the actual and future wireless communication systems in its way to provide the high quality and high data rates required by new data, voice and data services. However, it is important to understand the behavior of the spatial characteristics of the radio channel, since the channel by itself limits the performance of the actual wireless communications systems. This drawback raises the need to understand the spatial structure of the propagation channel in order to design, assess, and develop more efficient multiantenna technologies for the actual and future wireless communications systems. Multiantenna technologies such as ‘Smart Antennas’ and MIMO systems have generated great interest in the field of wireless communications, i.e. cellular communications systems and more recently WLAN (Wireless Local Area Networks), mainly because the higher quality and the high data rate they are able to provide. Their technological benefits are based on the exploitation of the spatial diversity provided by the use of multiple antennas as happened in the past with some multiaccess technologies such as FDMA (Frequency Division Multiplexing Access), TDMA (Time Division Multiplexing Access), and CDMA (Code Division Multiplexing Access), which give diversity in the domains of frequency, time and code, respectively. This Thesis is mainly focus to study the spatial channel characteristics using schemes of multiple antennas considering several diversity schemes such as space, polarization, and frequency. The spatial characteristics will be study in terms of the direction-of-arrival profiles viewed at the receiver side of the radio link. The first step is to do a review of the smart antennas and MIMO systems technologies highlighting their advantages and drawbacks from a mathematical point of view. In the second step, a set of studies concerning the spatial characterization of the radio channel through the DoA profiles are addressed. The performance of several DoA estimation methods is assessed considering several aspects regarding antenna array structure, polarization diversity, and far-field and near-field conditions. Most of the results of these studies come from simulations of data models and measurements with real multiantena prototypes. In the same way, having understand the importance of validate the theoretical data models with experimental results, a 2,4 GHz MIMO-OFDM-SPAA2D prototype is presented. This prototype is intended for evaluating MIMO-OFDM capacity in indoor and outdoor scenarios, characterize the spatial structure of radio channels, assess several diversity schemes such as polarization, space, and frequency diversity, among others aspects. The studies reported are briefly described below. As is stated in Chapter two, the determination of user position is a fundamental task to be resolved for the smart antenna systems. As these systems are equipped with antenna arrays, they can provide the enough spatial diversity to accurately draw the spatial characterization of the radio channel through the DoA profiles, and therefore the source location. However, certain real implementation factors related to antenna errors, signals, and receivers will certainly reduce the performance of such direction finding systems. In that sense, a parameterized narrowband signal model is proposed to evaluate the influence of these factors in the location parameter estimation through extensive MC simulations. The results obtained from several DoA algorithms may be useful to extract some parameter design for directing finding systems based on arrays. The second study goes through the importance that polarization schemes can have for estimating far-field DoA profiles in radio channels, particularly for scenarios that may introduce polarization losses. For this purpose, a narrowband signal model with polarization sensibility is developed to conduct an analysis of several polarization schemes at transmitter (TX) and receiver (RX) through extensive MC simulations. In addition, spatial characterization of quasistatic indoor scenarios is also carried out using a 2.45 GHz MIMO prototype equipped with single and dual-polarized antennas. A good agreement between the measured DoA profiles with the propagation scenario is achieved. The theoretical and experimental evaluation of polarization schemes is performed using virtual arrays. In that case, a DoA estimation method is proposed based on adding an phase reference to properly track the DoA, which shows good results. In the third study, the special case of near-field source localization with virtual arrays is addressed. Most of DoA estimation algorithms are focused in far-field source localization where the radiated wavefronts are assume to be planar waves at the receive array. However, when source are located close to the array, the assumption of plane waves is no longer valid as the wavefronts exhibit a spherical behavior along the array. Thus, a faster and effective method of azimuth, elevation angles-of-arrival, and range estimation for near-field sources is proposed. The efficacy of the proposed method is evaluated with simulation and validated with measurements collected from a measurement campaign carried out in a controlled propagation environment, i.e. anechoic chamber. Moreover, the performance of the method is assessed in terms of the RMSE for several array sizes, several source positions, and taking into account the effect of radiation pattern. In general, better results are obtained with larger array and larger source distances. The effect of the antennas is included in the data model leading to more accurate results, particularly for range rather than for angle estimation. Moreover, a new multivariable searching method based on the MUSIC algorithm, called MUSA (multilevel MUSIC-based algorithm), is presented. This method is proposed to estimate the 3D location parameters in a faster way than other multivariable algorithms, such as MUSIC algorithm, at the cost of increasing the memory size. Finally, in the last chapter, a MIMO-OFDM-SPAA3D prototype is presented to experimentally evaluate different MIMO schemes regarding antennas, polarization, and frequency in different indoor and outdoor scenarios. The prototype has been developed on a Software-Defined Radio (SDR) platform. It allows taking measurements where future wireless systems will be developed. The novelty of this prototype is concerning the following 2 subsystems. The first one is the tridimensional (3D) antenna positioning system (SPAA3D) based on three linear scanners which is developed for making automatic testing possible reducing errors of the antenna array positioning. A set of software has been developed for research works such as MIMO channel characterization, MIMO capacity, OFDM synchronization, and so on. The second subsystem is the RF autocalibration module at the TX and RX. This subsystem allows to properly tracking the spatial structure of indoor and outdoor channels in terms of DoA profiles. Some results are draw regarding performance of MIMO-OFDM systems with different polarization schemes and different propagation environments.
Resumo:
Las cascadas de señalización mediadas por proteína quinasas activadas por mitógeno (MAP quinasas) son capaces de integrar y transducir señales ambientales en respuestas celulares. Entre estas señales se encuentran los PAMPs/MAMPs (Pathogen/Microbe-Associated Molecular Patterns), que son moléculas de patógenos o microorganismos, o los DAMPs (Damaged-Associated Molecular Patterns), que son moléculas derivadas de las plantas producidas en respuesta a daño celular. Tras el reconocimiento de los PAMPs/DAMPs por receptores de membrana denominados PRRs (Pattern Recognition Receptors), como los receptores con dominio quinasa (RLKs) o los receptores sin dominio quinasa (RLPs), se activan respuestas moleculares, incluidas cascadas de MAP quinasas, que regulan la puesta en marcha de la inmunidad activada por PAMPs (PTI). Esta Tesis describe la caracterización funcional de la MAP quinasa quinasa quinasa (MAP3K) YODA (YDA), que actúa como un regulador clave de la PTI en Arabidopsis. Se ha descrito previamente que YDA controla varios procesos de desarrollo, como la regulación del patrón estomático, la elongación del zigoto y la arquitectura floral. Hemos caracterizado un alelo mutante hipomórfico de YDA (elk2 o yda11) que presenta una elevada susceptibilidad a patógenos biótrofos y necrótrofos. Notablemente, plantas que expresan una forma constitutivamente activa de YDA (CA-YDA), con una deleción en el dominio N-terminal, presentan una resistencia de amplio espectro frente a diferentes tipos de patógenos, incluyendo hongos, oomicetos y bacterias, lo que indica que YDA juega un papel importante en la regulación de la resistencia de las plantas a patógenos. Nuestros datos indican que esta función es independiente de las respuestas inmunes mediadas por los receptores previamente caracterizados FLS2 y CERK1, que reconocen los PAMPs flg22 y quitina, respectivamente, y que están implicados en la resistencia de Arabidopsis frente a bacterias y hongos. Hemos demostrado que YDA controla la resistencia frente al hongo necrótrofo Plectosphaerella cucumerina y el patrón estomático mediante su interacción genética con la RLK ERECTA (ER), un PRR implicado en la regulación de estos procesos. Por el contrario, la interacción genética entre ER y YDA en la regulación de otros procesos de desarrollo es aditiva en lugar de epistática. Análisis genéticos indicaron que MPK3, una MAP quinasa que funciona aguas abajo de YDA en el desarrollo estomático, es un componente de la ruta de señalización mediada por YDA para la resistencia frente a P. cucumerina, lo que sugiere que el desarrollo de las plantas y la PTI comparten el módulo de transducción de MAP quinasas asociado a YDA. Nuestros experimentos han revelado que la resistencia mediada por YDA es independiente de las rutas de señalización reguladas por las hormonas de defensa ácido salicílico, ácido jasmónico, ácido abscísico o etileno, y también es independiente de la ruta de metabolitos secundarios derivados del triptófano, que están implicados en inmunidad vegetal. Además, hemos demostrado que respuestas asociadas a PTI, como el aumento en la concentración de calcio citoplásmico, la producción de especies reactivas de oxígeno, la fosforilación de MAP quinasas y la expresión de genes de defensa, no están afectadas en el mutante yda11. La expresión constitutiva de la proteína CA-YDA en plantas de Arabidopsis no provoca un aumento de las respuestas PTI, lo que sugiere la existencia de mecanismos de resistencia adicionales regulados por YDA que son diferentes de los regulados por FLS2 y CERK1. En línea con estos resultados, nuestros datos transcriptómicos revelan una sobre-representación en plantas CA-YDA de genes de defensa que codifican, por ejemplo, péptidos antimicrobianos o reguladores de muerte celular, o proteínas implicadas en la biogénesis de la pared celular, lo que sugiere una conexión potencial entre la composición e integridad de la pared celular y la resistencia de amplio espectro mediada por YDA. Además, análisis de fosfoproteómica indican la fosforilación diferencial de proteínas relacionadas con la pared celular en plantas CA-YDA en comparación con plantas silvestres. El posible papel de la ruta ER-YDA en la regulación de la integridad de la pared celular está apoyado por análisis bioquímicos y glicómicos de las paredes celulares de plantas er, yda11 y CA-YDA, que revelaron cambios significativos en la composición de la pared celular de estos genotipos en comparación con la de plantas silvestres. En resumen, nuestros datos indican que ER y YDA forman parte de una nueva ruta de inmunidad que regula la integridad de la pared celular y respuestas defensivas, confiriendo una resistencia de amplio espectro frente a patógenos. ABSTRACT Plant mitogen-activated protein kinase (MAPK) cascades transduce environmental signals and developmental cues into cellular responses. Among these signals are the pathogen- or microbe-associated molecular patterns (PAMPs or MAMPs) and the damage-associated molecular patterns (DAMPs). These PAMPs/DAMPs, upon recognition by plant pattern recognition receptors (PRRs), such as Receptor-Like Kinases (RLKs) and Receptor-Like Proteins (RLPs), activate molecular responses, including MAPK cascades, which regulate the onset of PAMP-triggered immunity (PTI). This Thesis describes the functional characterization of the MAPK kinase kinase (MAP3K) YODA (YDA) as a key regulator of Arabidopsis PTI. YDA has been previously described to control several developmental processes, such as stomatal patterning, zygote elongation and inflorescence architecture. We characterized a hypomorphic, non-embryo lethal mutant allele of YDA (elk2 or yda11) that was found to be highly susceptible to biotrophic and necrotrophic pathogens. Remarkably, plants expressing a constitutive active form of YDA (CA-YDA), with a deletion in the N-terminal domain, showed broad-spectrum resistance to different types of pathogens, including fungi, oomycetes and bacteria, indicating that YDA plays a relevant function in plant resistance to pathogens. Our data indicated that this function is independent of the immune responses regulated by the well characterized FLS2 and CERK1 RLKs, which are the PRRs recognizing flg22 and chitin PAMPs, respectively, and are required for Arabidopsis resistance to bacteria and fungi. We demonstrate that YDA controls resistance to the necrotrophic fungus Plectosphaerella cucumerina and stomatal patterning by genetically interacting with ERECTA (ER) RLK, a PRR involved in regulating these processes. In contrast, the genetic interaction between ER and YDA in the regulation of other ER-associated developmental processes was additive, rather than epistatic. Genetic analyses indicated that MPK3, a MAP kinase that functions downstream of YDA in stomatal development, also regulates plant resistance to P. cucumerina in a YDA-dependent manner, suggesting that the YDA-associated MAPK transduction module is shared in plant development and PTI. Our experiments revealed that YDA-mediated resistance was independent of signalling pathways regulated by defensive hormones like salicylic acid, jasmonic acid, abscisic acid or ethylene, and of the tryptophan-derived metabolites pathway, which are involved in plant immunity. In addition, we showed that PAMP-mediated PTI responses, such as the increase of cytoplasmic Ca2+ concentration, reactive oxygen species (ROS) burst, MAPK phosphorylation, and expression of defense-related genes are not impaired in the yda11 mutant. Furthermore, the expression of CA-YDA protein does not result in enhanced PTI responses, further suggesting the existence of additional mechanisms of resistance regulated by YDA that differ from those regulated by the PTI receptors FLS2 and CERK1. In line with these observations, our transcriptomic data revealed the over-representation in CA-YDA plants of defensive genes, such as those encoding antimicrobial peptides and cell death regulators, and genes encoding cell wall-related proteins, suggesting a potential link between plant cell wall composition and integrity and broad spectrum resistance mediated by YDA. In addition, phosphoproteomic data revealed an over-representation of genes encoding wall-related proteins in CA-YDA plants in comparison with wild-type plants. The putative role of the ER-YDA pathway in regulating cell wall integrity was further supported by biochemical and glycomics analyses of er, yda11 and CA-YDA cell walls, which revealed significant changes in the cell wall composition of these genotypes compared with that of wild-type plants. In summary, our data indicate that ER and YDA are components of a novel immune pathway that regulates cell wall integrity and defensive responses, which confer broad-spectrum resistance to pathogens.