238 resultados para Señales acústicas
Resumo:
Los sistemas micro electro mecánicos (MEMS) han demostrado ser una exitosa familia de dispositivos que pueden usarse como plataforma para el desarrollo de dispositivos con aplicaciones en óptica, comunicaciones, procesado de señal y sensorización. Los dispositivos MEMS estándar suelen estar fabricados usando tecnología de silicio. Sin embargo, el rendimiento de estos MEMS se puede mejorar si se usan otros materiales. Por ejemplo, el diamante nanocristalino (NCD) ofrece unas excelentes propiedades mecánicas, transparencia y una superficie fácil de funcionalizar. Por otro lado, el sistema de materiales (In; Ga; Al)N, los materiales IIIN, se pueden usar para producir estructuras monocristalinas con alta sensibilidad mecánica y química. Además, el AlN se puede depositar por pulverización catódica reactiva sobre varios substratos, incluyendo NCD, para formar capas policristalinas orientadas con alta respuesta piezoeléctrica. Adicionalmente, tanto el NCD como los materiales III-N muestran una gran estabilidad térmica y química, lo que los hace una elección idónea para desarrollar dispositivos para aplicaciones para alta temperatura, ambientes agresivos e incluso para aplicaciones biocompatibles. En esta tesis se han usado estos materiales para el diseño y medición de demostradores tecnológicos. Se han perseguido tres objetivos principales: _ Desarrollo de unos procesos de fabricación apropiados. _ Medición de las propiedades mecánicas de los materiales y de los factores que limitan el rendimiento de los dispositivos. _ Usar los datos medidos para desarrollar dispositivos demostradores complejos. En la primera parte de esta tesis se han estudiado varias técnicas de fabricación. La estabilidad de estos materiales impide el ataque y dificulta la producción de estructuras suspendidas. Los primeros capítulos de esta disertación se dedican al desarrollo de unos procesos de transferencia de patrones por ataque seco y a la optimización del ataque húmedo sacrificial de varios substratos propuestos. Los resultados de los procedimientos de ataque se presentan y se describe la optimización de las técnicas para la fabricación de estructuras suspendidas de NCD y materiales III-N. En un capítulo posterior se estudia el crecimiento de AlN por pulverización catódica. Como se ha calculado en esta disertación para obtener una actuación eficiente de MEMS, las capas de AlN han de ser finas, típicamente d < 200 nm, lo que supone serias dificultades para la obtención de capas orientadas con respuesta piezoeléctrica. Las condiciones de depósito se han mapeado para identificar las fronteras que proporcionan el crecimiento de material orientado desde los primeros pasos del proceso. Además, durante la optimización de los procesos de ataque se estudió un procedimiento para fabricar películas de GaN nanoporoso. Estas capas porosas pueden servir como capas sacrificiales para la fabricación de estructuras suspendidas de GaN con baja tensión residual o como capas para mejorar la funcionalización superficial de sensores químicos o biológicos. El proceso de inducción de poros se discutirá y también se presentarán experimentos de ataque y funcionalización. En segundo lugar, se han determinado las propiedades mecánicas del NCD y de los materiales III-N. Se han fabricado varias estructuras suspendidas para la medición del módulo de Young y de la tensión residual. Además, las estructuras de NCD se midieron en resonancia para calcular el rendimiento de los dispositivos en términos de frecuencia y factor de calidad. Se identificaron los factores intrínsecos y extrínsecos que limitan ambas figuras de mérito y se han desarrollado modelos para considerar estas imperfecciones en las etapas de diseño de los dispositivos. Por otra parte, los materiales III-N normalmente presentan grandes gradientes de deformación residual que causan la deformación de las estructuras al ser liberadas. Se han medido y modelado estos efectos para los tres materiales binarios del sistema para proporcionar puntos de interpolación que permitan predecir las características de las aleaciones del sistema III-N. Por último, los datos recabados se han usado para desarrollar modelos analíticos y numéricos para el diseño de varios dispositivos. Se han estudiado las propiedades de transducción y se proporcionan topologías optimizadas. En el último capítulo de esta disertación se presentan diseños optimizados de los siguientes dispositivos: _ Traviesas y voladizos de AlN=NCD con actuación piezoeléctrica aplicados a nanoconmutadores de RF para señales de alta potencia. _ Membranas circulares de AlN=NCD con actuación piezoeléctrica aplicadas a lentes sintonizables. _ Filtros ópticos Fabry-Pérot basados en cavidades aéreas y membranas de GaN actuadas electrostáticamente. En resumen, se han desarrollado unos nuevos procedimientos optimizados para la fabricación de estructuras de NCD y materiales III-N. Estas técnicas se han usado para producir estructuras que llevaron a la determinación de las principales propiedades mecánicas y de los parámetros de los dispositivos necesarios para el diseño de MEMS. Finalmente, los datos obtenidos se han usado para el diseño optimizado de varios dispositivos demostradores. ABSTRACT Micro Electro Mechanical Systems (MEMS) have proven to be a successful family of devices that can be used as a platform for the development of devices with applications in optics, communications, signal processing and sensorics. Standard MEMS devices are usually fabricated using silicon based materials. However, the performance of these MEMS can be improved if other material systems are used. For instance, nanocrystalline diamond (NCD) offers excellent mechanical properties, optical transparency and ease of surface functionalization. On the other hand, the (In; Ga; Al)N material system, the III-N materials, can be used to produce single crystal structures with high mechanical and chemical sensitivity. Also, AlN can be deposited by reactive sputtering on various substrates, including NCD, to form oriented polycrystalline layers with high piezoelectric response. In addition, both NCD and III-N materials exhibit high thermal and chemical stability, which makes these material the perfect choice for the development of devices for high temperatures, harsh environments and even biocompatible applications. In this thesis these materials have been used for the design and measurement of technological demonstrators. Three main objectives have been pursued: _ Development of suitable fabrication processes. _ Measurement of the material mechanical properties and device performance limiting factors. _ Use the gathered data to design complex demonstrator devices. In a first part of the thesis several fabrication processes have been addressed. The stability of these materials hinders the etching of the layers and hampers the production of free standing structures. The first chapters of this dissertation are devoted to the development of a dry patterning etching process and to sacrificial etching optimization of several proposed substrates. The results of the etching processes are presented and the optimization of the technique for the manufacturing of NCD and III-N free standing structures is described. In a later chapter, sputtering growth of thin AlN layers is studied. As calculated in this dissertation, for efficient MEMS piezoelectric actuation the AlN layers have to be very thin, typically d < 200 nm, which poses serious difficulties to the production of c-axis oriented material with piezoelectric response. The deposition conditions have been mapped in order to identify the boundaries that give rise to the growth of c-axis oriented material from the first deposition stages. Additionally, during the etching optimization a procedure for fabricating nanoporous GaN layers was also studied. Such porous layers can serve as a sacrificial layer for the release of low stressed GaN devices or as a functionalization enhancement layer for chemical and biological sensors. The pore induction process will be discussed and etching and functionalization trials are presented. Secondly, the mechanical properties of NCD and III-N materials have been determined. Several free standing structures were fabricated for the measurement of the material Young’s modulus and residual stress. In addition, NCD structures were measured under resonance in order to calculate the device performance in terms of frequency and quality factor. Intrinsic and extrinsic limiting factors for both figures were identified and models have been developed in order to take into account these imperfections in the device design stages. On the other hand, III-N materials usually present large strain gradients that lead to device deformation after release. These effects have been measured and modeled for the three binary materials of the system in order to provide the interpolation points for predicting the behavior of the III-N alloys. Finally, the gathered data has been used for developing analytic and numeric models for the design of various devices. The transduction properties are studied and optimized topologies are provided. Optimized design of the following devices is presented at the last chapter of this dissertation: _ AlN=NCD piezoelectrically actuated beams applied to RF nanoswitches for large power signals. _ AlN=NCD piezoelectrically actuated circular membranes applied to tunable lenses. _ GaN based air gap tunable optical Fabry-Pérot filters with electrostatic actuation. On the whole, new optimized fabrication processes has been developed for the fabrication of NCD and III-N MEMS structures. These processing techniques was used to produce structures that led to the determination of the main mechanical properties and device parameters needed for MEMS design. Lastly, the gathered data was used for the design of various optimized demonstrator devices.
Resumo:
Sin duda, el rostro humano ofrece mucha más información de la que pensamos. La cara transmite sin nuestro consentimiento señales no verbales, a partir de las interacciones faciales, que dejan al descubierto nuestro estado afectivo, actividad cognitiva, personalidad y enfermedades. Estudios recientes [OFT14, TODMS15] demuestran que muchas de nuestras decisiones sociales e interpersonales derivan de un previo análisis facial de la cara que nos permite establecer si esa persona es confiable, trabajadora, inteligente, etc. Esta interpretación, propensa a errores, deriva de la capacidad innata de los seres humanas de encontrar estas señales e interpretarlas. Esta capacidad es motivo de estudio, con un especial interés en desarrollar métodos que tengan la habilidad de calcular de manera automática estas señales o atributos asociados a la cara. Así, el interés por la estimación de atributos faciales ha crecido rápidamente en los últimos años por las diversas aplicaciones en que estos métodos pueden ser utilizados: marketing dirigido, sistemas de seguridad, interacción hombre-máquina, etc. Sin embargo, éstos están lejos de ser perfectos y robustos en cualquier dominio de problemas. La principal dificultad encontrada es causada por la alta variabilidad intra-clase debida a los cambios en la condición de la imagen: cambios de iluminación, oclusiones, expresiones faciales, edad, género, etnia, etc.; encontradas frecuentemente en imágenes adquiridas en entornos no controlados. Este de trabajo de investigación estudia técnicas de análisis de imágenes para estimar atributos faciales como el género, la edad y la postura, empleando métodos lineales y explotando las dependencias estadísticas entre estos atributos. Adicionalmente, nuestra propuesta se centrará en la construcción de estimadores que tengan una fuerte relación entre rendimiento y coste computacional. Con respecto a éste último punto, estudiamos un conjunto de estrategias para la clasificación de género y las comparamos con una propuesta basada en un clasificador Bayesiano y una adecuada extracción de características. Analizamos en profundidad el motivo de porqué las técnicas lineales no han logrado resultados competitivos hasta la fecha y mostramos cómo obtener rendimientos similares a las mejores técnicas no-lineales. Se propone un segundo algoritmo para la estimación de edad, basado en un regresor K-NN y una adecuada selección de características tal como se propuso para la clasificación de género. A partir de los experimentos desarrollados, observamos que el rendimiento de los clasificadores se reduce significativamente si los ´estos han sido entrenados y probados sobre diferentes bases de datos. Hemos encontrado que una de las causas es la existencia de dependencias entre atributos faciales que no han sido consideradas en la construcción de los clasificadores. Nuestro resultados demuestran que la variabilidad intra-clase puede ser reducida cuando se consideran las dependencias estadísticas entre los atributos faciales de el género, la edad y la pose; mejorando el rendimiento de nuestros clasificadores de atributos faciales con un coste computacional pequeño. Abstract Surely the human face provides much more information than we think. The face provides without our consent nonverbal cues from facial interactions that reveal our emotional state, cognitive activity, personality and disease. Recent studies [OFT14, TODMS15] show that many of our social and interpersonal decisions derive from a previous facial analysis that allows us to establish whether that person is trustworthy, hardworking, intelligent, etc. This error-prone interpretation derives from the innate ability of human beings to find and interpret these signals. This capability is being studied, with a special interest in developing methods that have the ability to automatically calculate these signs or attributes associated with the face. Thus, the interest in the estimation of facial attributes has grown rapidly in recent years by the various applications in which these methods can be used: targeted marketing, security systems, human-computer interaction, etc. However, these are far from being perfect and robust in any domain of problems. The main difficulty encountered is caused by the high intra-class variability due to changes in the condition of the image: lighting changes, occlusions, facial expressions, age, gender, ethnicity, etc.; often found in images acquired in uncontrolled environments. This research work studies image analysis techniques to estimate facial attributes such as gender, age and pose, using linear methods, and exploiting the statistical dependencies between these attributes. In addition, our proposal will focus on the construction of classifiers that have a good balance between performance and computational cost. We studied a set of strategies for gender classification and we compare them with a proposal based on a Bayesian classifier and a suitable feature extraction based on Linear Discriminant Analysis. We study in depth why linear techniques have failed to provide competitive results to date and show how to obtain similar performances to the best non-linear techniques. A second algorithm is proposed for estimating age, which is based on a K-NN regressor and proper selection of features such as those proposed for the classification of gender. From our experiments we note that performance estimates are significantly reduced if they have been trained and tested on different databases. We have found that one of the causes is the existence of dependencies between facial features that have not been considered in the construction of classifiers. Our results demonstrate that intra-class variability can be reduced when considering the statistical dependencies between facial attributes gender, age and pose, thus improving the performance of our classifiers with a reduced computational cost.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
Una red de sensores inalámbrica es un conjunto de dispositivos electrónicos que se comunican entre sí sin la necesidad de una infraestructura, recogiendo información del entorno en el que han sido desplegados, procesándola y transmitiéndola hasta una estación base mediante saltos sucesivos entre los nodos de la red (multi-salto). Durante las dos últimas décadas, este campo ha sido muy desarrollado en la comunidad científica, debido a las ventajas que ofrece el despliegue de una red inalámbrica en un entorno con el fin de estudiarlo y/o controlarlo. La ausencia de una infraestructura, junto con el reducido tamaño de los nodos, permite este estudio sin que dicho entorno se vea significativamente afectado por factores externos como pueda ser la presencia humana, permitiendo además aumentar el número de nodos que componen la red o cambiar la posición de algunos de ellos sin que sea necesario reconfigurarla manualmente. El principal reto que presentan las redes de sensores inalámbricas es su autonomía. En general, se requiere que un nodo tenga la capacidad de funcionar durante largos períodos de tiempo (varios meses o incluso un año) antes de que su batería se agote. Esto hace de la gestión del consumo energético un aspecto crítico en el diseño de la red y sus nodos. En el presente trabajo se busca optimizar este consumo mediante la gestión del proceso de comunicación y enrutamiento de la red. Con este fin, se implementa el protocolo CTP (Collection Tree Protocol) en la plataforma Cookies desarrollada en el Centro de Electrónica Industrial (CEI) de la UPM. CTP es un protocolo de rutado centrado en los datos, que utiliza una topología en árbol, con el nodo coordinador o estación base como raíz del mismo, para la transmisión de la información desde los sensores hasta la estación base. Además, no utiliza direcciones predeterminadas, dotando a la red de la flexibilidad requerida para hacer frente a inconsistencias y/o variaciones en la densidad y tamaño de la red. La ruta escogida se basa en un gradiente de rutado decreciente, ETX (Expected Transmission Count), que representa la calidad de la conexión entre un nodo y su nodo padre. Este gradiente de enrutamiento se obtiene mediante una conversión directa a partir del LQI (Link Quality Indication) definido por el estándar IEEE 802.15.4. Esta conversión directa supone una aproximación utilizando valores umbral del LQI. Un nodo escogerá el siguiente salto que realizará el paquete a enviar seleccionando de entre sus vecinos a aquél que tenga el menor ETX, evitando de esta forma la aparición de bucles. Otro de los aspectos que supone un gran consumo es el proceso de mantenimiento de la estructura de la red, pues requiere el envío periódico de señales de control o beacons a lo largo de toda la red. El protocolo CTP aprovecha el algoritmo de goteo (Trickle Algorithm), para gestionar el mantenimiento: durante la formación de la red y cuando se detecte alguna inconsistencia, se incrementa la frecuencia de emisión de los beacons, permitiendo así una rápida propagación de las señales de control para crear o reparar las conexiones entre los nodos. En cambio, cuando la topología de la red es estable, esta frecuencia de emisión se reduce significativamente, limitándose a asegurar que la topología se mantiene estable y favoreciendo así el ahorro de energía.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
El plástico se ha convertido en el material del siglo XXI. Se adapta a múltiples aplicaciones, por eso se emplea para todo tipo de propósitos, entre los cuales destaca el empaquetado por su versatilidad, flexibilidad y durabilidad. Un efecto directo de su continuo uso es la producción de residuos poliméricos, que tras su utilización, se desechan. A partir de ese momento, solo existen dos vías de acción: reciclado y vertido. El vertido de residuos se ha convertido en un grave problema del día a día. En consecuencia, se deben tomar medidas para evitar su acumulación, que implica grandes problemas medioambientales que afectan tanto a personas como a fauna y flora. Por consiguiente, para evitar el desaprovechamiento de una buena parte de los residuos, de aquellos que son plásticos, se lleva a cabo su reciclado. Existen tres tipos de reciclado para los materiales poliméricos: el mecánico o convencional, el químico y la valorización energética. El más sostenible de todos ellos es el reciclado mecánico que además es el empleado para la elaboración de las probetas de este estudio. El reciclado convencional posee varias etapas, entre las cuales destacan fundir el plástico y procesarlo posteriormente. El producto final aparece en forma de pellets, que pueden ser transformados según el uso ulterior. El polímero generado posee una calidad inferior a la de los materiales vírgenes, dado que durante su utilización ha podido ser contaminado por otras substancias. Por tanto, no puede emplearse para muchos de sus pasados usos si no es reforzado con algún otro material. Es entonces cuando surgen los ecocomposites o biocomposites. Los ecocomposites son unos materiales compuestos de matriz polimérica, que presentan especiales ventajas medioambientales, porque utilizan refuerzos celulósicos de fuentes renovables y/o matrices de plásticos reciclados. En nuestro caso, la matriz es una mezcla de residuos plásticos agrarios (RAP) y urbanos, que principalmente están formados por polietileno de alta densidad (HDPE). Por sí solos estos plásticos reciclados, no poseen las cualidades necesarias para su utilización. Por consiguiente, se refuerzan con fibras de celulosa. Estas hebras añadidas también son residuales ya que carecen de las propiedades adecuadas para la fabricación de papel y, en lugar de ser incineradas o desechadas, se emplean en los ecocomposites como ayuda para soportar los esfuerzos mecánicos. Otro beneficio medioambiental del uso de la celulosa, es que hace que los ecocomposites sean más biodegradables en comparación con las fibras minerales que se añaden en los otros composites. Cabe mencionar que, al tratarse de un material totalmente reciclado, también genera una serie de ventajas económicas y sociales. El reciclado mecánico necesita de trabajadores que lleven a cabo la labor. De este modo, aparecen nuevos puestos de trabajo que dan solución a problemas sociales de la población. El reciclado de plásticos irá aumentando durante los próximos años dado que en 2014 la Comunidad Europea fijó como objetivo una economía circular que implica procesar todos los residuos para evitar su acumulación. En la actualidad, aún no se reciclan gran cantidad de plásticos agrarios. Sin embargo, con este compromiso se espera un aumento del volumen de PE agrícola reciclado mecánicamente, ya que el origen del material obtenido a partir de ellos es ecológico y favorece el cuidado del medio ambiente, al emplear materiales de desecho en la generación de los nuevos. Combinando los plásticos reciclados y la celulosa, se crea un material respetuoso con el medio ambiente. No obstante, existe un motivo mayor para su fabricación: se trata de un compuesto con propiedades mecánicas optimizadas que se adapta a numerosas aplicaciones como mobiliario urbano, señales de tráfico… Sus características aúnan los beneficios de unir ambos materiales. Por un lado, la baja densidad, las posibilidades de reciclado y la alta resistencia al impacto aportadas por el plástico. Por el otro, las hebras celulósicas mejoran notablemente el módulo de Young, la rigidez y el límite de tensión que son capaces de soportar con respecto a probetas de misma forma pero sin fibras. Estas propiedades no son las únicas que se modifican al combinar las dos substancias. El refuerzo, al tratarse de un material hidrófilo, tenderá a atrapar la humedad ambiental. Como consecuencia, se producirá un hinchamiento que es posible que repercuta en la estabilidad dimensional del material durante su uso. Asimismo, si la celulosa está en contacto continuo con agua, modifica su naturaleza ya que se producen una serie de cambios en su estructura. El agua genera también la rotura de las interacciones fibra-matriz en la interfase del material compuesto, lo que reduce grandemente las propiedades del ecocomposite. Así pues, la absorción de agua es uno de los principales problemas de estos materiales y limita sus aplicaciones y también la reciclabilidad de los residuos celulósicos y plásticos. Por lo tanto, el principal objetivo de este proyecto es la caracterización tanto de la cinética como del mecanismo de la absorción de agua en los ecocomposites a través de varias técnicas y ensayos siempre con el fin último de reducir la absorción de agua y mejorar las propiedades y las aplicaciones de estos materiales reciclados. Se estudiaron ecocomposites obtenidos a partir de residuos plásticos agrarios y urbanos, con una cantidad variable de celulosa residual, entre 25 y 35%. A algunos de ellos se les había añadido un peróxido orgánico en proporción del 0,025% o 0,05% en peso. Una parte de los materiales había sido sometida a un envejecimiento acelerado de 100, 250 o 500 horas en cámara climática, donde se exponen a calor y humedad. La proporción no constante de celulosa se empleó para descubrir cuánto afecta su variación en la absorción de agua. El peróxido estaba presente como ayuda para entrecruzar la matriz con el refuerzo, que ya se había comprobado que mejoraba las propiedades mecánicas del material, y se pretendía investigar si también podía causar una mejora en la absorción de agua, o bien suponía un empeoramiento. Por último, se pretendía estudiar si el envejecimiento de estos materiales altera la absorción de agua. La absorción se caracterizó principalmente a través de tres procedimientos, todos ellos basados en la medición de ciertas propiedades tras la inmersión de las muestras en viales con agua destilada. Por un lado, se controló la absorción midiendo la ganancia de masa de las muestras mediante una balanza analítica. Por otro lado, se midió el hinchamiento de las probetas a lo largo del tiempo. Finalmente, se caracterizó el agua absorbida y se midió la absorción mediante espectrofotometría infrarroja por transformada de Fourier (FTIR), lo que suministró información sobre los tipos de agua absorbida y los mecanismos de absorción. En el estudio del hinchamiento y de la absorción por gravimetría se tomaron todas las muestras, con una y dos replicaciones. Para la espectrofotometría se analizaron los filmes de código 43500, 43505, 43520 y 43525. La absorción de agua es un fenómeno que se puede explicar en muchos casos a través de la segunda ley de Fick. Para poder emplear esta ley, se toman como hipótesis que la difusión es no estacionaria, la presión y la temperatura son constantes y se trata de difusión unidireccional. Para la aplicación de esta teoría, es necesario que las muestras sean láminas bidimensionales de espesor despreciable. Los coeficientes de difusión se pueden calcular mediante una serie de métodos propuestos por Crank en The Mathematics of Diffusion [5] que recopilan soluciones a esta segunda ley de Fick. La absorción de agua fue aumentando con el tiempo. Inicialmente, el gradiente es superior; esto es, se absorbió más durante las primeras horas de inmersión. Para que la difusión sea Fickiana, el proceso debe ser reversible y alcanzarse un valor de equilibrio de absorción. Nuestros resultados indican que esto no se cumple para largos tiempos de inmersión ya que la teoría predice que la masa absorbida tiende a un valor constante en el equilibrio, mientras que los datos experimentales muestran una tendencia de la absorción a crecer indefinidamente Para tiempos cortos inferiores a 50h, al tratarse de pocas horas de inmersión, el material no se degrada, por lo que el proceso puede describirse como Fickiano. Se calcularon los coeficientes de difusión aparentes y valor estable de cantidad de agua al que tiende la absorción cuando el comportamiento es Fickiano. Los resultados indican que la celulosa afecta considerablemente a la absorción, favoreciéndola cuanto mayor es el porcentaje de fibras. Asimismo, el peróxido no tiene un efecto reseñable en la absorción, porque aúna dos efectos contrarios: favorece el entrecruzamiento de la interfase matriz-refuerzo y degrada parcialmente el material, sobre todo las impurezas de polipropileno en el rHDPE. Finalmente, el envejecimiento muestra una tendencia a facilitar la absorción, pero es importante señalar que esta tendencia desaparece cuando se utiliza peróxido en la composición del ecocomposite, por lo que el peróxido puede aumentar la duración del material. Por último, la espectroscopía FTIR fue muy útil para conocer los tipos de agua que se encuentran en el interior del material, ya que el espectro infrarrojo del agua absorbida depende de cómo se encuentre unida al material. La espectroscopía FTIR ha permitido también observar la cinética de absorción de los diferentes tipos de agua por separado. La absorción del agua libre y el agua ligada se describe bien mediante un modelo Fickiano. La bondad del ajuste para un comportamiento Fickiano es alta. Así pues, los resultados obtenidos aportan información sobre la cinética y los mecanismos de absorción de agua y han mostrado que la absorción depende del contenido en celulosa y no empeora por la adición de peróxido. Por el contrario, el peróxido añadido parece reducir la absorción en materiales envejecidos, lo que puede contribuir a aumentar la duración de estos materiales y mejorar así la reciclabilidad de los residuos empleados.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
El presente proyecto desarrolla un estudio acústico del recinto: Auditorio Rafael Frühbeck de Burgos, cumpliendo con las indicaciones exigidas por la norma UNE-EN ISO 3382-1: 2010, “Medición de parámetros acústicos en recintos, Parte 1: Salas de Espectáculos”. Se desarrollan dos estudios acústicos sobre el mismo recinto. En el primero de ellos, el recinto está configurado para la realización de eventos tales como conferencias o congresos, donde la inteligibilidad de la palabra es un factor determinante. En el segundo estudio, el recinto se configura para espectáculos musicales como conciertos de orquesta sinfónica o música de cámara. En esta configuración, la palabra ya no es tan determinante como la correcta interpretación y disfrute de la música por parte de la audiencia. Para ambas configuraciones del recinto se ha realizado un procesado estadístico de los datos con el fin de obtener un valor único de cada parámetro acústico estudiado. De esta forma, se comparan los resultados para ambas configuraciones, y se evalúan los valores obtenidos de cada uno de los parámetros acústicos con el fin de conocer si se adecuan a las necesidades acústicas exigidas por el tipo de evento desarrollado. Además, se ha construido un modelo geométrico del recinto por ordenador, para ambas configuraciones acústicas, haciendo uso del software profesional de predicción y simulación acústica EASE. Se realiza un estudio acústico sobre el modelo geométrico mediante simulación, siguiendo las pautas llevadas a cabo durante la medición “in situ”. Los resultados obtenidos por simulación se comparan con los obtenidos de las mediciones “in situ”, para estudiar la validación del modelo geométrico. El parámetro acústico elegido para validar el modelo, en un primer momento, será el tiempo de reverberación. Si se consigue una buena validación del modelo geométrico, este puede ser utilizado para realizar predicciones acústicas mediante simulación, cuando un sistema de refuerzo sonoro sea utilizado dentro del recinto. El sistema de refuerzo sonoro ubicado en el recinto sometido a estudio, no ha sido utilizado en el presente proyecto. ABSTRACT. The present projects carry out an acoustic study of enclosure: Rafael Frühbeck Concert Hall, in Burgos, fulfilling the indications demanded by the standard UNE-EN ISO 3382-1:2010 “Measurement of room acoustic parameters – Part 1: Performance spaces. Two acoustics studies are developed on the same enclosure. In first of them, the enclosure is formed for the accomplishment of events such as conferences or congresses, where speech intelligibility is a determining factor. In the second study, the enclosure forms for musical performances like concerts of symphony orchestra or chamber music. In this acoustic configuration, speech intelligibility is not as determining as the correct interpretation and enjoyment of music in audience areas. For both configurations of the enclosure, a statistical processing of the data has been realised with the purpose of obtaining a unique value of each studied acoustic parameter. In this way, the results for both configurations are compared, and the obtained values of each one of the acoustic parameters are evaluated with the purpose of knowing if they are adapted to the acoustic needs demanded by the type of developed event. In addition, a geometric model of the enclosure has been constructed by computer, for both acoustic configurations; making use of the professional software of prediction and acoustical simulation, EASE. An acoustic study is developed on the geometric model by means of simulation, following the rules carried out during the measurement “in situ”. The results obtained by simulation are compared with the obtained ones from the measurement “in situ”, to study the validation of the geometric model. Initially the acoustic parameter chosen to validate the model is Reverberation Time. If a good validation of the geometric model is reached, it can be used to realize acoustic predictions by simulation, when a sound reinforcement system is used within the enclosure. The sound reinforcement system located in the enclosure under study has not been used in the present project.
Resumo:
Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.
Resumo:
La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.
Resumo:
Esta tesis se ha llevado a cabo persiguiendo dos objetivos principales: uno de ellos es el desarrollo y la aplicación de modelos para el mantenimiento predictivo de sensores en centrales nucleares, y el otro es profundizar en el entendimiento de los fenómenos que tienen influencia en el ruido de la señal de los detectores de neutrones de los reactores de agua a presión con ayuda de herramientas de simulación 3D. Para el desarrollo de los trabajos se ha contado con medidas de ruido de reactores PWR actualmente en operación registradas en el curso de la tesis. El análisis de estas medidas ha permitido desarrollar los modelos de los sensores a partir de sus señales reales y comparar lo obtenido en las simulaciones con la realidad. El estudio de los sensores y la elaboración de los modelos se han llevado a cabo mediante la aplicación de técnicas autorregresivas a las señales tomadas en planta. Para la reproducción de los fenómenos que tienen lugar en el núcleo del reactor y que pueden influir en el ruido neutrónico se ha contado con códigos neutrónicos ampliamente utilizados en la industria y con modelos actualizados y validados de las plantas. ABSTRACT There are two goals in this thesis. The first one is the development of models and its application for predictive maintenance of sensors in nuclear power plants. The second one is to improve the understanding of the phenomena that influence the neutron noise in pressurized water reactors by using 3D simulators. Real plant measurements recorded during this thesis have been used to achieve such goals. The information provided by the data led the development of the models and the comparison of the results provided by the computational simulations. Sensor models were obtained by applying autorregresive techniques to the signals recorded in the plant. Wide known codes in the nuclear industry as well as updated and validated models have been used for the reproduction of the phenomena that take place in the core an may influence the neutron noise.
Resumo:
Esta Tesis surgió ante la intensidad y verosimilitud de varias señales o “warnings” asociadas a políticas dirigidas a reducir el peso del petróleo en el sector energético, tanto por razones económicas, como geopolíticas, como ambientales. Como tal Tesis se consolidó al ir incorporando elementos novedosos pero esenciales en el mundo petrolífero, particularmente las “tecnologías habilitantes”, tanto de incidencia directa, como el “fracking” como indirecta, del cual es un gran ejemplo el Vehículo Eléctrico (puro). La Tesis se definió y estructuró para elaborar una serie de indagaciones y disquisiciones, que comportaran un conjunto de conclusiones que fueran útiles para las corporaciones energéticas. También para la comprensión de la propia evolución del sector y de sus prestaciones técnicas y económicas, de cara a dar el servicio que los usuarios finales piden. Dentro de las tareas analíticas y reflexivas de la Tesis, se acuñaron ciertos términos conceptuales para explicar más certeramente la realidad del sector, y tal es el caso del “Investment burden”, que pondera la inversión específica (€/W) requerida por una instalación, con la duración del período de construcción y los riesgos tanto tangibles como regulatorios. Junto a ello la Tesis propone una herramienta de estudio y prognosis, denominada “Market integrated energy efficiency”, especialmente aplicable a dicotomías. Tal es el caso del coche térmico, versus coche eléctrico. El objetivo es optimizar una determinada actividad energética, o la productividad total del sector. Esta Tesis propone varias innovaciones, que se pueden agrupar en dos niveles: el primero dentro del campo de la Energía, y el segundo dentro del campo de las corporaciones, y de manera especial de las corporaciones del sector hidrocarburos. A nivel corporativo, la adaptación a la nueva realidad será función directa de la capacidad de cada corporación para desarrollar y/o comprar las tecnologías que permitan mantener o aumentar cuota de mercado. Las conclusiones de la Tesis apuntan a tres opciones principalmente para un replanteamiento corporativo: - Diversificación energética - Desplazamiento geográfico - Beneficiándose de posibles nuevos nichos tecnológicos, como son: • En upstream: Recuperación estimulada de petróleo mediante uso de energías renovables • En downstream: Aditivos orientados a reducir emisiones • En gestión del cambio: Almacenamiento energético con fines operativos Algunas políticas energéticas siguen la tendencia de crecimiento cero de algunos países de la OCDE. No obstante, la realidad mundial es muy diferente a la de esos países. Por ejemplo, según diversas estimaciones (basadas en bancos de datos solventes, referenciados en la Tesis) el número de vehículos aumentará desde aproximadamente mil millones en la actualidad hasta el doble en 2035; mientras que la producción de petróleo sólo aumentará de 95 a 145 millones de barriles al día. Un aumento del 50% frente a un aumento del 100%. Esto generará un curioso desajuste, que se empezará a sentir en unos pocos años. Las empresas y corporaciones del sector hidrocarburos pueden perder el monopolio que atesoran actualmente en el sector transporte frente a todas las demás fuentes energéticas. Esa pérdida puede quedar compensada por una mejor gestión de todas sus capacidades y una participación más integrada en el mundo de la energía, buscando sinergias donde hasta ahora no había sino distanciamiento. Los productos petrolíferos pueden alimentar cualquier tipo de maquina térmica, como las turbinas Brayton, o alimentar reformadores para la producción masiva de H2 para su posterior uso en pilas combustible. El almacenamiento de productos derivados del petróleo no es ningún reto ni plantea problema alguno; y sin embargo este almacenamiento es la llave para resolver muchos problemas. Es posible que el comercio de petróleo se haga menos volátil debido a los efectos asociados al almacenamiento; pero lo que es seguro es que la eficiencia energética de los usos de ese petróleo será más elevada. La Tesis partía de ciertas amenazas sobre el futuro del petróleo, pero tras el análisis realizado se puede vislumbrar un futuro prometedor en la fusión de políticas medioambientales coercitivas y las nuevas tecnologías emergentes del actual portafolio de oportunidades técnicas. ABSTRACT This Thesis rises from the force and the credibility of a number of warning signs linked to policies aimed at reducing the role of petroleum in the energy industry due to economical, geopolitical and environmental drives. As such Thesis, it grew up based on aggregating new but essentials elements into the petroleum sector. This is the case of “enabling technologies” that have a direct impact on the petroleum industry (such as fracking), or an indirect but deep impact (such as the full electrical vehicle). The Thesis was defined and structured in such a way that could convey useful conclusions for energy corporations through a series of inquiries and treatises. In addition to this, the Thesis also aims at understating la evolution of the energy industry and its capabilities both technical and economical, towards delivering the services required by end users. Within the analytical task performed in the Thesis, new terms were coined. They depict concepts that aid at explaining the facts of the energy industry. This is the case for “Investment burden”, it weights the specific capital investment (€/W) required to build a facility with the time that takes to build it, as well as other tangible risks as those posed by regulation. In addition to this, the Thesis puts forward an application designed for reviewing and predicting: the so called “Market integrated energy efficiency”, especially well-suited for dichotomies, very appealing for the case of the thermal car versus the electric car. The aim is to optimize energy related activity; or even the overall productivity of the system. The innovations proposed in this Thesis can be classified in two tiers. Tier one, within the energy sector; and tier two, related to Energy Corporation in general, but with oil and gas corporations at heart. From a corporate level, the adaptation to new energy era will be linked with the corporation capability to develop or acquire those technologies that will yield to retaining or enhancing market share. The Thesis highlights three options for corporate evolution: - diversification within Energy - geographic displacement - profiting new technologies relevant to important niches of work for the future, as: o Upstream: enhanced oil recovery using renewable energy sources (for upstream companies in the petroleum business) o Downstream: additives for reducing combustion emissions o Management of Change: operational energy storage Some energy policies tend to follow the zero-growth of some OECD countries, but the real thing could be very different. For instance, and according to estimates the number of vehicles in use will grow from 1 billion to more than double this figure 2035; but oil production will only grow from 95 million barrel/day to 145 (a 50% rise of versus an intensification of over a 100%). Hydrocarbon Corporation can lose the monopoly they currently hold over the supply of energy to transportation. This lose can be mitigated through an enhanced used of their capabilities and a higher degree of integration in the world of energy, exploring for synergies in those places were gaps were present. Petroleum products can be used to feed any type of thermal machine, as Brayton turbines, or steam reformers to produce H2 to be exploited in fuel cells. Storing petroleum products does not present any problem, but very many problems can be solved with them. Petroleum trading will likely be less volatile because of the smoothing effects of distributed storage, and indeed the efficiency in petroleum consumption will be much higher. The Thesis kicked off with a menace on the future of petroleum. However, at the end of the analysis, a bright future can be foreseen in the merging between highly demanding environmental policies and the relevant technologies of the currently emerging technical portfolio.
Resumo:
El origen de esta tesis considera una lectura (quizás) pendiente: definir críticamente a la monumentalidad en el contexto de la arquitectura moderna. La idea de lo monumental durante la modernidad establece parte de la negación enmarcada en un planteamiento más amplio, basado en el rechazo a todo vínculo con la tradición y la historia. Desde el estatismo del monumento como objeto anacrónico, a la instrumentación de la arquitectura como herramienta simbólica, el proceso transformador más importante para la arquitectura durante el siglo XX contaba con algunas señales que nos daban la pauta para imaginar una realidad conformada por matices y desacuerdos fundamentales. La investigación no pretende contar una nueva historia sobre el periodo moderno, aunque irremediablemente se vale de su registro para presentar la discusión. Así, la idea crítica que sostenemos tiene que ver con las posibilidades estructurales y objetivas del discurso arquitectónico. Un discurso que se analiza en función de tres campos diferenciados, designados como: lo escrito, lo proyectado y lo construido en el periodo de estudio. De esta manera, pensamos que se favorecen las posibilidades dimensionales de la crítica y se amplía el sentido narrativo de la linealidad histórica. Para esta trabajo, la monumentalidad constituye una sustancia de estudio que evidencia las contradicciones, inadvertencias y matices necesarios en la articulación de una visión más compleja sobre los acontecimientos. Convencidos de la eficacia de un modelo dialéctico, que define la condición de lo monumental tanto en una valoración positiva (lo propicio, lo útil, lo verdadero, etc.) como negativa (lo falso, lo ostentoso, lo altisonante, etc.); observaremos que las diferencias alrededor del concepto derivan respectivamente en los significados de monumentalidad y monumentalismo. El contraste y la oposición de ideas expuestas a la luz favorece esa pretensión dimensional de la crítica. De los escritos de Sigfried Giedion -y la Nueva Monumentalidad- a Le Corbusier y la construcción de Chandigarh; o de la crítica anti-monumental de Karel Teige, pasando por el proyecto constructivista de Ivan Leonidov; los distintos episodios referidos en el trabajo encuentran sentido y rechazan las probabilidades arbitrarias y confusas de la selección temática. En ese orden, se busca asignar cierto rigor metodológico e incluso geométrico: la estructura propuesta toma el gran "periodo moderno" en dos bloques temporales, primera-modernidad (alrededor de 1910-1935) y tardo-modernidad (aprox. 1935-1960). En la primera parte se analizan una postura -en mayor medida- reactiva a las manifestaciones de esa hipotética condición monumental, mientras que en el segundo caso la postura se transforma y se perfila un nuevo escenario que anticipará ideológicamente parte de la evidente fractura posmoderna. A su vez, los tres registros anunciados previamente se componen de dos capítulos en función del marco temporal descrito; cada capítulo se desarrolla en tres partes que abundan en los aspectos preliminares de la discusión, luego exponen unos puntos centrales y finalmente orientan un posible recuento. El trabajo se complementa con una parte introductoria que fluye sobre definiciones concretas del monumento, el monumentalismo y la monumentalidad; además de que definirá la orientación de la crítica desarrollada. En una última intervención, a manera de conclusión, se reflexiona sobre el salto temporal, ideológico y estético que la posmodernidad representó para el tema de investigación. Abstract The purpose of this thesis is to consider a (perhaps) pendant issue: to define monumentality by means of critical approach within the modern context of architecture. The idea of what monumental is during modernity establishes a fraction of the "modern typical denial" based on the rejection of any link to tradition and history. From the anachronistic idea of static monuments, to the orchestration of architecture as a symbolic tool, the most important process of the revolution of architecture during the 20th Century had a few signs that allowed us to imagine a reality conformed by fundamental nuances and disagreements. The aim of this research is not to tell a new story about the modern period, although inexorable it takes note of the register to present the discussion. Therefore, the idea of what we expose as criticism has to do with structural and objective possibilities in the architectural discourse. A speech analyzed in response to three differentiated domains designated here as: the written, the projected and the built during the selected time. In that way, we believe the dimensional possibilities of criticism are favored and the narrative sense of historical process is expanded. In terms of this investigation monumentality constitutes a matter of study that leads us to contradictions, unnoticed issues and necessary gray areas in the articulation of a complex vision about depicted events. We are convinced in the efficiency of a dialectical analysis model in order to define the monumental condition both as a positive value (propitious, useful, truthful, etc.) and a negative one (untrue, ostentatious, pompous, etc.); the idea is to show the differences around respective meanings deriving in terms of monumentality and monumentalism. Contrasting information and the opposition of ideas exposed in this light helped to develop the assumption of dimensional criticism. From Sigfried Giedeon's writings -and the New Monumentality- to Le Corbusier and the construction of Chandigarh; and from Karel Teige's anti-monumental criticism going through the revision of Ivan Leonidov's constructivist project; the variety of episodes referred to this work find some sense and reject the probabilities about confusion and arbitrary in the selection of themes. In order to assign some methodological precision and even geometrical criterion, the proposed structure divides the "great modern time" into two historical blocks: first-modernity (circa 1910-1935) and late-modernity (around 1935-1960). The first part analyzes a -mainly- reactive stance towards the hypothetical expressions of monumental condition, whereas in the second block the rejection tends to be transformed and to project a new scenario that will foresee the ideological postmodern fracture. At the same time, the three registers are composed by two chapters each one will operate depending on the described time frame. Each chapter is organized in three subsequent parts: at first explaining preliminary ideas for discussion, second presenting central points and finally orienting a partial recount. The research is complemented with an introductory episode describing specific definitions concerning the concepts of monument, monumentalism and monumentality; and mainly orienting the developed critique. In a final intervention, as a way of conclusion, we reflect on ideological and aesthetic qualities that postmodern time shift represented for this investigation.
Resumo:
En este proyecto se propone un entorno de producción para televisión en alta definición donde las cintas magnéticas para la captura, modificación, gestión y transferencia de los contenidos audiovisuales, quedan sustituidas por servidores informáticos y sistemas de almacenamiento basados en las tecnologías de la información. Dicho entorno sin cintas tiene como misión la realización de la fase de la producción de los contenidos televisivos. Se trata de un centra independiente, en una ubicación remota respecto a las instalaciones centrales de la empresa emisora de televisión. La conexión del entorno sin cinta con los servicios centrales de la cadena se realiza por medio de redes de datos de alta velocidad y por enlace de radiofrecuencia. Por estos medios los sistemas de redacción comunican datos y escaletas, se reciben las señales de contribución que intervienen en los programas, se envía la serial realizada para emisión y se transfieren los materiales grabados al área de Postproducción para su elaboración final. Se plantean dos estudios de televisión dotados de servidores de video y de un almacenamiento compartido para una gestión ágil, unificada y flexible de las demandas de los programas. Además de la eliminación del lento y pesado trabajo de manipulación de las cintas, la producción resulta mucho mas ágil porque se eliminan tiempos de espera por la posibilidad de acceso simultaneo de varios usuarios a un mismo contenido. También se suprimen los tiempos de digitalización y descarga del material grabado, porque los sistemas implementados permiten la ingesta directa de las señales recibidas. Los contenidos de varias jornadas de grabación, en calidad HD, se conservan en el sistema de almacenamiento para la elaboración de materiales en el propio centra y para su transferencia al departamento central correspondiente. Mediante aplicaciones software se busca la integración del trabajo de la redacción de los programas con los procesos de producción de los estudios. El diseño que se propone para los diferentes subsistemas técnicos de los estudios esta orientado a lograr una alta fiabilidad, operatividad y adaptabilidad a las demandas técnicas de la producción audiovisual de los diferentes tipos de programas. Al tratarse de una propuesta conceptual, de manera general no se basa en equipos de marcas o fabricantes concretos sino mas bien en las metodologías concretas de trabajo. Cuando se ejemplifica algún dispositivo en particular es debido a que el concepto tecnológico del mismo es novedoso destaca de manera especial sobre la generalidad de los equipos existentes para esa funcionalidad. ABSTRACT. This project hopes to propose a television production platform that uses computers, servers and storage systems based on information technologies, rather than video tape recorders for ingesting, editing and making TV programs. This tapeless system has as its mission the production of all kind of television contents, employing IT systems, without the use of magnetic tapes. We envision an independent TV production center located in a remote location, in relation to the main broadcaster facilities, where all communications between this broadcasting center and the remote independent tapeless center would occur via high speed internet and a radiofrequency link as a back up. In this way, the Newsroom systems communicate data and rundowns; contribution feeds are received; PGM signal are codified and transmitted; and stored media are transferred to the post production area for final editing, playout and archive. Two TV studios are proposed, equipped with video servers and sharing media storage for agile, unified and flexible management of the production requirements. Apart from completely eliminating the slow and hard work resulting from handling a lot of traditional magnetic tapes, the production ends up being much quicker due to the fact that there is no waiting time between recording and viewing. This also enables several users to access and view the same material at the same time. The digitalization and downloading time is also greatly reduced due to the direct ingestion of contribution feeds to the system. The HD content of various days of recording, are stored for future use for whichever department needs the footage in the future. Through software applications, there will be complete integration between the Newsroom work and the production process of the studios. The proposed design for the various technical subsystems in the recording studio is directed towards achieving optimum reliability and operational capability: they are easily adaptable to the technical demands of the audiovisual production of the different programs. Because we are dealing with a conceptual proposal, in general terms, we are not defining the brands or manufacturers of the technical equipment, but rather we are specifying the methods which we plan to implement. When some equipment is highlighted, it's only because that specific brand exemplifies a higher performance than any other equipment in the range.
Resumo:
El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.