760 resultados para Pressao de Pulso
Resumo:
Aunque se conocen muchos métodos precisos para medidas de humedad puntuales, hasta hace muy poco, no existían métodos in situ para la medida del contenido de humedad a escala de metros o de kilómetros, importantes cuando pensamos a nivel de cuenca hidrográfica. La fibra óptica ha sido muy utilizada en el área de las comunicaciones. Sin embargo, entre sus aplicaciones más recientes, destaca la de su uso para medir la temperatura incluso en grandes distancias (hasta 10 km) y con una alta frecuencia temporal, lo que ha abierto un amplio abanico de posibilidades muy importantes en el seguimiento medioambiental (Selker et al. 2006a; 2006b, Tyler et al. 2008; Westhoff et al., 2007; Freifeld et al., 2008). La precisión en la medida puede alcanzar ± 0,2ºC en una distancia de ± 25 cm. El método utilizado en los ensayos explicados en esta comunicación es el denominado “Distributed Fiber Optic Temperature Measurement” (medida distribuida de la temperatura con fibra óptica) o DFOT, que consiste en emitir un impulso óptico con láser y medir en el tiempo la señal reflejada en diferentes puntos de la fibra. Este método se ha utilizado en el estudio de filtraciones de minas abandonadas (Selker et al. 2006a) y en proyectos relacionados con el cambio climático, como en el estudio del deshielo en glaciares y balances hídricos en pequeñas cuencas (Selker et al. 2006b). Además, en medios porosos, se ha usado, con buenos resultados para la detección de rotura de diques en presas (Perzlmaier et al. 2004a y 2004b) y para la detección de entrada de agua en vertederos urbanos con cubierta vegetal (Weiss, 2003b). Imhoff et al. (2006) en su revisión de técnicas de medidas de contenido de agua en el suelo destaca el uso del “DFOT heat pulse method” (método DFOT del pulso de calor).
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
Un estudio geofísico mediante resonancia se realiza mediante la excitación del agua del subsuelo a partir de la emisión de una intensidad variable a lo largo de un cable extendido sobre la superficie en forma cuadrada o circular. El volumen investigado depende del tamaño de dicho cable, lo cual, junto con la intensidad utilizada para la excitación del agua determina las diferentes profundidades del terreno de las que se va a extraer información, que se encuentran entre 10 y 100 m, habitualmente. La tesis doctoral presentada consiste en la adaptación del Método de Resonancia Magnética para su utilización en aplicaciones superficiales mediante bucles de tamaño reducido. Dicha información sobre el terreno en la escala desde decímetros a pocos metros es interesante en relación a la física de suelos y en general en relación a diferentes problemas de Ingeniería, tanto de extracción de agua como constructiva. Una vez realizada la revisión del estado de conocimiento actual del método en relación a sus aplicaciones usuales, se estudian los problemas inherentes a su adaptación a medidas superficiales. Para solventar dichos problemas se han considerado dos líneas de investigación principales: En primer lugar se realiza un estudio de la influencia de las características del pulso de excitación emitido por el equipo en la calidad de las medidas obtenidas, y las posibles estrategias para mejorar dicho pulso. El pulso de excitación es un parámetro clave en la extracción de información sobre diferentes profundidades del terreno. Por otro lado se busca la optimización del dispositivo de medida para su adaptación al estudio de los primeros metros del suelo mediante el equipo disponible, tratándose éste del equipo NumisLITE de la casa Iris Instruments. ABSTRACT Magnetic Resonance Sounding is a geophysical method performed through the excitation of the subsurface water by a variable electrical intensity delivered through a wire extended on the surface, forming a circle or a square. The investigated volume depends on the wire length and the intensity used, determining the different subsurface depths reached. In the usual application of the method, this depth ranges between 10 and 100 m. This thesis studies the adaptation of the above method to more superficial applications using smaller wire loops. Information about the subsurface in the range of decimeter to a few meters is interesting regarding physics of soils, as well as different Engineering problems, either for water extraction or for construction. After a review of the nowadays state of the art of the method regarding its usual applications, the special issues attached to its use to perform very shallow measures are studied. In order to sort out these problems two main research lines are considered: On the one hand, a study about the influence of the characteristics of the emitted pulse in the resulting measure quality is performed. Possible strategies in order to improve this pulse are investigated, as the excitation pulse is a key parameter to obtain information from different depths of the subsurface. On the other hand, the study tries to optimize the measurement device to its adaptation to the study of the first meters of the ground with the available instrumentation, the NumisLITE equipment from Iris Instruments.
Resumo:
Este informe trata el diseño, desarrollo y construcción de un aerodeslizador de pequeño tamaño, equipado con control remoto que permite al usuario actuar sobre la velocidad y dirección del mismo. Este proyecto podrá ser utilizado en un futuro como base para el desarrollo de aplicaciones más complejas. Un aerodeslizador es un medio de transporte cuyo chasis se eleva sobre el suelo por medio de un motor impulsor que hincha una falda colocada en la parte inferior del mismo. Además, uno o más motores se colocan en la parte trasera del vehículo para propulsarlo. El hecho de que el aerodeslizador no este en contacto directo con la tierra, hace que pueda moverse tanto por tierra como sobre el agua o hielo y que sea capaz de superar pequeños obstáculos. Por otra parte, este hecho se convierte a su vez en un problema debido a que su fuerza de rozamiento al desplazarse es muy pequeña, lo que provoca que sea muy difícil de frenar, y tienda a girar por sí mismo debido a la inercia del movimiento y a las fuerzas provocadas por las corrientes de aire debajo del chasis. Sin embargo, para este proyecto no se ha colocado una falda debajo del mismo, debido a que su diseño es bastante complicado, por lo tanto la fricción con el suelo es menor, aumentando los problemas detallados con anterioridad. El proyecto consta de dos partes, mando a distancia y aerodeslizador, que se conectan a través de antenas de radiofrecuencia (RF). El diseño y desarrollo de cada una ha sido realizado de manera separada exceptuando la parte de las comunicaciones entre ambas. El mando a distancia se divide en tres partes. La primera está compuesta por la interfaz de usuario y el circuito que genera las señales analógicas correspondientes a sus indicaciones. La interfaz de usuario la conforman tres potenciómetros: uno rotatorio y dos deslizantes. El rotatorio se utiliza para controlar la dirección de giro del aerodeslizador, mientras que cada uno de los deslizantes se emplea para controlar la fuerza del motor impulsor y del propulsor respectivamente. En los tres casos los potenciómetros se colocan en el circuito de manera que actúan como divisores de tensión controlables. La segunda parte se compone de un microcontrolador de la familia PSoC. Esta familia de microcontroladores se caracteriza por tener una gran adaptabilidad a la aplicación en la que se quieran utilizar debido a la posibilidad de elección de los periféricos, tanto analógicos como digitales, que forman parte del microcontrolador. Para el mando a distancia se configura con tres conversores A/D que se encargan de transformar las señales procedentes de los potenciómetros, tres amplificadores programables para trabajar con toda la escala de los conversores, un LCD que se utiliza para depurar el código en C con el que se programa y un módulo SPI que es la interfaz que conecta el microcontrolador con la antena. Además, se utilizan cuatro pines externos para elegir el canal de transmisión de la antena. La tercera parte es el módulo transceptor de radio frecuencia (RF) QFM-TRX1-24G, que en el mando a distancia funciona como transmisor. Éste utiliza codificación Manchester para asegurar bajas tasas de error. Como alimentación para los circuitos del mando a distancia se utilizan cuatro pilas AA de 1,5 voltios en serie. En el aerodeslizador se pueden distinguir cinco partes. La primera es el módulo de comunicaciones, que utiliza el mismo transceptor que en el mando a distancia, pero esta vez funciona como receptor y por lo tanto servirá como entrada de datos al sistema haciendo llegar las instrucciones del usuario. Este módulo se comunica con el siguiente, un microcontrolador de la familia PSoC, a través de una interfaz SPI. En este caso el microcontrolador se configura con: un modulo SPI, un LCD utilizado para depurar el código y tres módulos PWM (2 de 8 bits y uno de 16 bits) para controlar los motores y el servo del aerodeslizador. Además, se utilizan cuatro pines externos para seleccionar el canal de recepción de datos. La tercera y cuarta parte se pueden considerar conjuntamente. Ambas están compuestas por el mismo circuito electrónico basado en transistores MOSFET. A la puerta de cada uno de los transistores llega una señal PWM de 100 kilohercios que proviene del microcontrolador, que se encarga de controlar el modo de funcionamiento de los transistores, que llevan acoplado un disipador de calor para evitar que se quemen. A su vez, los transistores hacen funcionar al dos ventiladores, que actúan como motores, el impulsor y el propulsor del aerodeslizador. La quinta y última parte es un servo estándar para modelismo. El servo está controlado por una señal PWM, en la que la longitud del pulso positivo establece la posición de la cabeza del servo, girando en uno u otra dirección según las instrucciones enviadas desde el mando a distancia por el usuario. Para el aerodeslizador se han utilizado dos fuentes de alimentación diferentes: una compuesta por 4 pilas AA de 1,5 voltios en serie que alimentarán al microcontrolador y al servo, y 4 baterías de litio recargables de 3,2 voltios en serie que alimentan el circuito de los motores. La última parte del proyecto es el montaje y ensamblaje final de los dispositivos. Para el chasis del aerodeslizador se ha utilizado una cubierta rectangular de poli-estireno expandido, habitualmente encontrado en el embalaje de productos frágiles. Este material es bastante ligero y con una alta resistencia a los golpes, por lo que es ideal para el propósito del proyecto. En el chasis se han realizado dos agujeros: uno circular situado en el centro del mismo en el se introduce y se ajusta con pegamento el motor impulsor, y un agujero con la forma del servo, situado en uno del los laterales estrechos del rectángulo, en el que se acopla el mismo. El motor propulsor está adherido al cabezal giratorio del servo de manera que rota a la vez que él, haciendo girar al aerodeslizador. El resto de circuitos electrónicos y las baterías se fijan al chasis mediante cinta adhesiva y pegamento procurando en todo momento repartir el peso de manera homogénea por todo el chasis para aumentar la estabilidad del aerodeslizador. SUMMARY: In this final year project a remote controlled hovercraft was designed using mainly technology that is well known by students in the embedded systems programme. This platform could be used to develop further and more complex projects. The system was developed dividing the work into two parts: remote control and hovercraft. The hardware was of the hovercraft and the remote control was designed separately; however, the software was designed at the same time since it was needed to develop the communication system. The result of the project was a remote control hovercraft which has a user friendly interface. The system was designed based on microprocessor technologies and uses common remote control technologies. The system has been designed with technology commonly used by the students in Metropolia University so that it can be readily understood in order to develop other projects based on this platform.
Resumo:
Evaluación de un hormigón autocompactante sometido a ciclos hielo-deshielo mediante ensayos no destructivos. Los daños asociados a los ciclos hielo-deshielo en estructuras de hormigón y sobre todo cuando se usan sales fundentes, son evidentes en una inspección, en muchos casos en ese momento, el daño ya es relativamente grande y se requiere una intervención importante. El uso de técnicas no destructivas que puedan anticipar el daño antes de que fuera detectable mediante inspección, permitiría poder acometer operaciones de mantenimiento con un menor coste. En este trabajo se monitoriza mediante técnicas no destructivas tres hormigones: uno convencional, con y sin aireante, y otro autocompactante frente a ciclos de hielo/ deshielo, sometiendo probetas al ensayo de resistencia al hielo-deshielo de acuerdo a la norma UNE-CEN/TS 12390-9 (medida de pérdida de masa superficial). En paralelo a las medidas de descascarillamiento superficial se realizaron medidas de velocidad de pulso ultrasónico, para establecer la variación del módulo de elasticidad dinámico del material. También se realizaron mediciones en continuo, durante todos los ciclos, de deformación superficial del hormigón utilizando bandas extensométricas y sensores de fibra óptica. Los resultados obtenidos del ensayo de hielo-deshielo muestran, como cabía esperar, un mayor deterioro en el hormigón de referencia sin aireante. Los hormigones eran de resistencias características similares, con el mismo contenido de cemento, igual relación agua/cemento, si bien el hormigón autocompactante tenía una mayor cantidad de finos filler calizo) con el consiguiente refinamiento de la red porosa. De los resultados obtenidos, se determinó por un lado la viabilidad del uso de ensayos no destructivos, con posible implementación in situ, para determinar el daño del hormigón autocompactante y por otro la posibilidad de utilizar estas medidas de la deformación en el ensayo de hielo-deshielo en laboratorio con la ventaja de no tener que parar el ensayo para realizar las medidas de descascarillamiento de las probetas.
Resumo:
Visually impaired people have many difficulties when traveling because it is impossible for them to detect obstacles that stand in their way. Bats instead of using the sight to detect these obstacles use a method based on ultrasounds, as their sense of hearing is much more developed than that of sight. The aim of the project is to design and build a device based on the method used by the bats to detect obstacles and transmit this information to people with vision problems to improve their skills. The method involves sending ultrasonic waves and analyzing the echoes produced when these waves collide with an obstacle. The sent signals are pulses and the information needed is the time elapsed from we send a pulse to receive the echo produced. The speed of sound is fixed within the same environment, so measuring the time it takes the wave to make the return trip, we can easily know the distance where the object is located. To build the device we have to design the necessary circuits, fabricate printed circuit boards and mount the components. We also have to design a program that would work within the digital part, which will be responsible for performing distance calculations and generate the signals with the information for the user. The circuits are the emitter and the receiver. The transmitter circuit is responsible for generating the signals that we will use. We use an ultrasonic transmitter which operates at 40 kHz so the sent pulses have to be modulated with this frequency. For this we generate a 40 kHz wave with an astable multivibrator formed by NAND gates and a train of pulses with a timer. The signal is the product of these two signals. The circuit of the receiver is a signal conditioner which transforms the signals received by the ultrasonic receiver in square pulses. The received signals have a 40 kHz carrier, low voltage and very different shapes. In the signal conditioner we will amplify the voltage to appropriate levels, eliminate the component of 40 kHz and make the shape of the pulses square to use them digitally. To simplify the design and manufacturing process in the digital part of the device we will use the Arduino platform. The pulses sent and received echoes enter through input pins with suitable voltage levels. In the Arduino, our program will poll these two signals storing the time when a pulse occurs. These time values are analyzed and used to generate an audible signal with the user information. This information is stored in the frequency of the signal, so that the generated signal frequency varies depending on the distance at which the objects are. RESUMEN Las personas con discapacidad visual tienen muchas dificultades a la hora de desplazarse ya que les es imposible poder detectar los obstáculos que se interpongan en su camino. Los murciélagos en vez de usar la vista para detectar estos obstáculos utilizan un método basado en ultrasonidos, ya que su sentido del oído está mucho más desarrollado que el de la vista. El objetivo del proyecto es diseñar y construir un dispositivo basado en el método usado por los murciélagos para detectar obstáculos y que pueda ser usado por las personas con problemas en la vista para mejorar sus capacidades. El método utilizado consiste en enviar ondas de ultrasonidos y analizar el eco producido cuando estas ondas chocan con algún obstáculo. Las señales enviadas tendrán forma de pulsos y la información necesaria es el tiempo transcurrido entre que enviamos un pulso y recibimos el eco producido. La velocidad del sonido es fija dentro de un mismo entorno, por lo que midiendo el tiempo que tarda la onda en hacer el viaje de ida y vuelta podemos fácilmente conocer la distancia a la que se encuentra el objeto. Para construir el dispositivo tendremos que diseñar los circuitos necesarios, fabricar las placas de circuito impreso y montar los componentes. También deberemos diseñar el programa que funcionara dentro de la parte digital, que será el encargado de realizar los cálculos de la distancia y de generar las señales con la información para el usuario. Los circuitos diseñados corresponden uno al emisor y otro al receptor. El circuito emisor es el encargado de generar las señales que vamos a emitir. Vamos a usar un emisor de ultrasonidos que funciona a 40 kHz por lo que los pulsos que enviemos van a tener que estar modulados con esta frecuencia. Para ello generamos una onda de 40 kHz mediante un multivibrador aestable formado por puertas NAND y un tren de pulsos con un timer. La señal enviada es el producto de estas dos señales. El circuito de la parte del receptor es un acondicionador de señal que transforma las señales recibidas por el receptor de ultrasonidos en pulsos cuadrados. Las señales recibidas tienen una portadora de 40 kHz para poder usarlas con el receptor de ultrasonidos, bajo voltaje y formas muy diversas. En el acondicionador de señal amplificaremos el voltaje a niveles adecuados además de eliminar la componente de 40 kHz y conseguir pulsos cuadrados que podamos usar de forma digital. Para simplificar el proceso de diseño y fabricación en la parte digital del dispositivo usaremos la plataforma Arduino. Las señales correspondientes el envío de los pulsos y a la recepción de los ecos entraran por pines de entrada después de haber adaptado los niveles de voltaje. En el Arduino, nuestro programa sondeara estas dos señales almacenando el tiempo en el que se produce un pulso. Estos valores de tiempo se analizan y se usan para generar una señal audible con la información para el usuario. Esta información ira almacenada en la frecuencia de la señal, por lo que la señal generada variará su frecuencia en función de la distancia a la que se encuentren los objetos.
Resumo:
Los métodos de detección rápida de microorganismos se están convirtiendo en una herramienta esencial para el control de calidad en el área de la biotecnología, como es el caso de las industrias de alimentos y productos farmacéuticos y bioquímicos. En este escenario, el objetivo de esta tesis doctoral es desarrollar una técnica de inspección rápida de microoganismos basada en ultrasonidos. La hipótesis propuesta es que la combinación de un dispositivo ultrasónico de medida y un medio líquido diseñado específicamente para producir y atrapar burbujas, pueden constituir la base de un método sensible y rápido de detección de contaminaciones microbianas. La técnica presentada es efectiva para bacterias catalasa-positivas y se basa en la hidrólisis del peróxido de hidrógeno inducida por la catalasa. El resultado de esta reacción es un medio con una creciente concentración de burbujas. Tal medio ha sido estudiado y modelado desde el punto de vista de la propagación ultrasónica. Las propiedades deducidas a partir del análisis cinemático de la enzima se han utilizado para evaluar el método como técnica de inspección microbiana. En esta tesis, se han investigado aspectos teóricos y experimentales de la hidrólisis del peróxido de hidrógeno. Ello ha permitido describir cuantitativamente y comprender el fenómeno de la detección de microorganismos catalasa-positivos mediante la medida de parámetros ultrasónicos. Más concretamente, los experimentos realizados muestran cómo el oxígeno que aparece en forma de burbujas queda atrapado mediante el uso de un gel sobre base de agar. Este gel fue diseñado y preparado especialmente para esta aplicación. A lo largo del proceso de hidrólisis del peróxido de hidrógeno, se midió la atenuación de la onda y el “backscattering” producidos por las burbujas, utilizando una técnica de pulso-eco. Ha sido posible detectar una actividad de la catalasa de hasta 0.001 unidades/ml. Por otra parte, este estudio muestra que por medio del método propuesto, se puede lograr una detección microbiana para concentraciones de 105 células/ml en un periodo de tiempo corto, del orden de unos pocos minutos. Estos resultados suponen una mejora significativa de tres órdenes de magnitud en comparación con otros métodos de detección por ultrasonidos. Además, la sensibilidad es competitiva con modernos y rápidos métodos microbiológicos como la detección de ATP por bioluminiscencia. Pero sobre todo, este trabajo muestra una metodología para el desarrollo de nuevas técnicas de detección rápida de bacterias basadas en ultrasonidos. ABSTRACT In an industrial scenario where rapid microbiological methods are becoming essential tools for quality control in the biotechnological area such as food, pharmaceutical and biochemical; the objective of the work presented in this doctoral thesis is to develop a rapid microorganism inspection technique based on ultrasounds. It is proposed that the combination of an ultrasonic measuring device with a specially designed liquid medium, able to produce and trap bubbles could constitute the basis of a sensitive and rapid detection method for microbial contaminations. The proposed technique is effective on catalase positive microorganisms. Well-known catalase induced hydrogen peroxide hydrolysis is the fundamental of the developed method. The physical consequence of the catalase induced hydrogen peroxide hydrolysis is an increasingly bubbly liquid medium. Such medium has been studied and modeled from the point of view of ultrasonic propagation. Properties deduced from enzyme kinematics analysis have been extrapolated to investigate the method as a microbial inspection technique. In this thesis, theoretical and experimental aspects of the hydrogen peroxide hydrolysis were analyzed in order to quantitatively describe and understand the catalase positive microorganism detection by means of ultrasonic measurements. More concretely, experiments performed show how the produced oxygen in form of bubbles is trapped using the new gel medium based on agar, which was specially designed for this application. Ultrasonic attenuation and backscattering is measured in this medium using a pulse-echo technique along the hydrogen peroxide hydrolysis process. Catalase enzymatic activity was detected down to 0.001 units/ml. Moreover, this study shows that by means of the proposed method, microbial detection can be achieved down to 105 cells/ml in a short time period of the order of few minutes. These results suppose a significant improvement of three orders of magnitude compared to other ultrasonic detection methods for microorganisms. In addition, the sensitivity reached is competitive with modern rapid microbiological methods such as ATP detection by bioluminescence. But above all, this work points out a way to proceed for developing new rapid microbial detection techniques based on ultrasound.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
En esta tesis se aborda el estudio del proceso de isomerización del sistema molecular LiNC/LiCN tanto aislado como en presencia de un pulso láser aplicando la teoría del estado de transición (TST). Esta teoría tiene como pilar fundamental el hecho de que el conocimiento de la dinámica en las proximidades de un punto de silla de la superficie de energía potencial permite determinar los parámetros cinéticos de la reacción objeto de estudio. Históricamente, existen dos formulaciones de la teoría del estado de transición, la versión termodinámica de Eyring (Eyr38) y la visión dinámica de Wigner (Wig38). Ésta última ha sufrido recientemente un amplio desarrollo, paralelo a los avances en sistemas dinámicos que ha dado lugar a una formulación geométrica en el espacio de fases que sirve como base al trabajo desarrollado en esta tesis. Nos hemos centrado en abordar el problema desde una visión fundamentalmente práctica, ya que la teoría del estado de transición presenta una desventaja: su elevado coste computacional y de tiempo de cálculo. Dos han sido los principales objetivos de este trabajo. El primero de ellos ha sido sentar las bases teóricas y computacionales de un algoritmo eficiente que permita obtener las magnitudes fundamentales de la TST. Así, hemos adaptado con éxito un algoritmo computacional desarrollado en el ámbito de la mecánica celeste (Jor99), obteniendo un método rápido y eficiente para la obtención de los objetos geométricos que rigen la dinámica en el espacio de fases y que ha permitido calcular magnitudes cinéticas tales como el flujo reactivo, la densidad de estados de reactivos y productos y en última instancia la constante de velocidad. Dichos cálculos han sido comparados con resultados estadísticos (presentados en (Mül07)) lo cual nos ha permitido demostrar la eficacia del método empleado. El segundo objetivo de esta tesis, ha sido la evaluación de la influencia de los parámetros de un pulso electromagnético sobre la dinámica de reacción. Para ello se ha generalizado la metodología de obtención de la forma normal del hamiltoniano cuando el sistema químico es alterado mediante una perturbación temporal periódica. En este caso el punto fijo inestable en cuya vecindad se calculan los objetos geométricos de interés para la aplicación de la TST, se transforma en una órbita periódica del mismo periodo que la perturbación. Esto ha permitido la simulación de la reactividad en presencia de un pulso láser. Conocer el efecto de esta perturbación posibilita el control de la reactividad química. Además de obtener los objetos geométricos que rigen la dinámica en una cierta vecindad de la órbita periódica y que son la clave de la TST, se ha estudiado el efecto de los parámetros del pulso sobre la reactividad en el espacio de fases global así como sobre el flujo reactivo que atraviesa la superficie divisoria que separa reactivos de productos. Así, se ha puesto de manifiesto, que la amplitud del pulso es el parámetro más influyente sobre la reactividad química, pudiendo producir la aparición de flujos reactivos a energías inferiores a las de aparición del sistema aislado y el aumento del flujo reactivo a valores constantes de energía inicial. ABSTRACT We have studied the isomerization reaction LiNC/LiCN isolated and perturbed by a laser pulse. Transition State theory (TST) is the main tool we have used. The basis of this theory is knowing the dynamics close to a fixed point of the potential energy surface. It is possible to calculate kinetic magnitudes by knowing the dynamics in a neighbourhood of the fixed point. TST was first formulated in the 30's and there were 2 points of view, one thermodynamical by Eyring (Eyr38) and another dynamical one by Wigner (Wig38). The latter one has grown lately due to the growth of the dynamical systems leading to a geometrical view of the TST. This is the basis of the work shown in this thesis. As the TST has one main handicap: the high computational cost, one of the main goals of this work is to find an efficient method. We have adapted a methodology developed in the field of celestial mechanics (Jor99). The result: an efficient, fast and accurate algorithm that allows us to obtain the geometric objects that lead the dynamics close to the fixed point. Flux across the dividing surface, density of states and reaction rate coefficient have been calculated and compared with previous statistical results, (Mül07), leading to the conclusion that the method is accurate and good enough. We have widen the methodology to include a time dependent perturbation. If the perturbation is periodic in time, the fixed point becomes a periodic orbit whose period is the same as the period of the perturbation. This way we have been able to simulate the isomerization reaction when the system has been perturbed by a laser pulse. By knowing the effect of that perturbation we will be able to control the chemical reactivity. We have also studied the effect of the parameters on the global phase space dynamics and on the flux across the dividing surface. It has been prove that amplitude is the most influent parameter on the reaction dynamics. Increasing amplitude leads to greater fluxes and to some flux at energies it would not if the systems would not have been perturbed.
Resumo:
En este trabajo se analiza la influencia del espesor de la junta de mortero en la resistencia a compresión de la fábrica de ladrillo cerámico bajo esfuerzos de compresión uniaxial. Además se estudia el progresivo agrietamiento del material durante el proceso de carga. Se han ensayado nueve muros y nueve pilares, combinando tres espesores de junta de mortero relizando medidas con ultrasonidos, además se han realizado medidas con extensómetros y esclerómetro. Los resultados obtenidos muestran que a menor espesor de junta mayor carga de rotura y mayor valor de la velocidad de pulso ultrasónico. La medida con ultrasonidos muestra una buena correlación con las medidas extensométricas y permite una eficaz detección del agrietamiento interior del material durante el proceso de rotura
Resumo:
El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.
Resumo:
Existe una creciente necesidad de hacer el mejor uso del agua para regadío. Una alternativa eficiente consiste en la monitorización del contenido volumétrico de agua (θ), utilizando sensores de humedad. A pesar de existir una gran diversidad de sensores y tecnologías disponibles, actualmente ninguna de ellas permite obtener medidas distribuidas en perfiles verticales de un metro y en escalas laterales de 0.1-1,000 m. En este sentido, es necesario buscar tecnologías alternativas que sirvan de puente entre las medidas puntuales y las escalas intermedias. Esta tesis doctoral se basa en el uso de Fibra Óptica (FO) con sistema de medida de temperatura distribuida (DTS), una tecnología alternativa de reciente creación que ha levantado gran expectación en las últimas dos décadas. Específicamente utilizamos el método de fibra calentada, en inglés Actively Heated Fiber Optic (AHFO), en la cual los cables de Fibra Óptica se utilizan como sondas de calor mediante la aplicación de corriente eléctrica a través de la camisa de acero inoxidable, o de un conductor eléctrico simétricamente posicionado, envuelto, alrededor del haz de fibra óptica. El uso de fibra calentada se basa en la utilización de la teoría de los pulsos de calor, en inglés Heated Pulsed Theory (HPP), por la cual el conductor se aproxima a una fuente de calor lineal e infinitesimal que introduce calor en el suelo. Mediante el análisis del tiempo de ocurrencia y magnitud de la respuesta térmica ante un pulso de calor, es posible estimar algunas propiedades específicas del suelo, tales como el contenido de humedad, calor específico (C) y conductividad térmica. Estos parámetros pueden ser estimados utilizando un sensor de temperatura adyacente a la sonda de calor [método simple, en inglés single heated pulsed probes (SHPP)], ó a una distancia radial r [método doble, en inglés dual heated pulsed probes (DHPP)]. Esta tesis doctoral pretende probar la idoneidad de los sistemas de fibra óptica calentada para la aplicación de la teoría clásica de sondas calentadas. Para ello, se desarrollarán dos sistemas FO-DTS. El primero se sitúa en un campo agrícola de La Nava de Arévalo (Ávila, España), en el cual se aplica la teoría SHPP para estimar θ. El segundo sistema se desarrolla en laboratorio y emplea la teoría DHPP para medir tanto θ como C. La teoría SHPP puede ser implementada con fibra óptica calentada para obtener medidas distribuidas de θ, mediante la utilización de sistemas FO-DTS y el uso de curvas de calibración específicas para cada suelo. Sin embargo, la mayoría de aplicaciones AHFO se han desarrollado exclusivamente en laboratorio utilizando medios porosos homogéneos. En esta tesis se utiliza el programa Hydrus 2D/3D para definir tales curvas de calibración. El modelo propuesto es validado en un segmento de cable enterrado en una instalación de fibra óptica y es capaz de predecir la respuesta térmica del suelo en puntos concretos de la instalación una vez que las propiedades físicas y térmicas de éste son definidas. La exactitud de la metodología para predecir θ frente a medidas puntuales tomadas con sensores de humedad comerciales fue de 0.001 a 0.022 m3 m-3 La implementación de la teoría DHPP con AHFO para medir C y θ suponen una oportunidad sin precedentes para aplicaciones medioambientales. En esta tesis se emplean diferentes combinaciones de cables y fuentes emisoras de calor, que se colocan en paralelo y utilizan un rango variado de espaciamientos, todo ello en el laboratorio. La amplitud de la señal y el tiempo de llegada se han observado como funciones del calor específico del suelo. Medidas de C, utilizando esta metodología y ante un rango variado de contenidos de humedad, sugirieron la idoneidad del método, aunque también se observaron importantes errores en contenidos bajos de humedad de hasta un 22%. La mejora del método requerirá otros modelos más precisos que tengan en cuenta el diámetro del cable, así como la posible influencia térmica del mismo. ABSTRACT There is an increasing need to make the most efficient use of water for irrigation. A good approach to make irrigation as efficient as possible is to monitor soil water content (θ) using soil moisture sensors. Although, there is a broad range of different sensors and technologies, currently, none of them can practically and accurately provide vertical and lateral moisture profiles spanning 0-1 m depth and 0.1-1,000 m lateral scales. In this regard, further research to fulfill the intermediate scale and to bridge single-point measurement with the broaden scales is still needed. This dissertation is based on the use of Fiber Optics with Distributed Temperature Sensing (FO-DTS), a novel approach which has been receiving growing interest in the last two decades. Specifically, we employ the so called Actively Heated Fiber Optic (AHFO) method, in which FO cables are employed as heat probe conductors by applying electricity to the stainless steel armoring jacket or an added conductor symmetrically positioned (wrapped) about the FO cable. AHFO is based on the classic Heated Pulsed Theory (HPP) which usually employs a heat probe conductor that approximates to an infinite line heat source which injects heat into the soil. Observation of the timing and magnitude of the thermal response to the energy input provide enough information to derive certain specific soil thermal characteristics such as the soil heat capacity, soil thermal conductivity or soil water content. These parameters can be estimated by capturing the soil thermal response (using a thermal sensor) adjacent to the heat source (the heating and the thermal sources are mounted together in the so called single heated pulsed probe (SHPP)), or separated at a certain distance, r (dual heated pulsed method (DHPP) This dissertation aims to test the feasibility of heated fiber optics to implement the HPP theory. Specifically, we focus on measuring soil water content (θ) and soil heat capacity (C) by employing two types of FO-DTS systems. The first one is located in an agricultural field in La Nava de Arévalo (Ávila, Spain) and employ the SHPP theory to estimate θ. The second one is developed in the laboratory using the procedures described in the DHPP theory, and focuses on estimating both C and θ. The SHPP theory can be implemented with actively heated fiber optics (AHFO) to obtain distributed measurements of soil water content (θ) by using reported soil thermal responses in Distributed Temperature Sensing (DTS) and with a soil-specific calibration relationship. However, most reported AHFO applications have been calibrated under laboratory homogeneous soil conditions, while inexpensive efficient calibration procedures useful in heterogeneous soils are lacking. In this PhD thesis, we employ the Hydrus 2D/3D code to define these soil-specific calibration curves. The model is then validated at a selected FO transect of the DTS installation. The model was able to predict the soil thermal response at specific locations of the fiber optic cable once the surrounding soil hydraulic and thermal properties were known. Results using electromagnetic moisture sensors at the same specific locations demonstrate the feasibility of the model to detect θ within an accuracy of 0.001 to 0.022 m3 m-3. Implementation of the Dual Heated Pulsed Probe (DPHP) theory for measurement of volumetric heat capacity (C) and water content (θ) with Distributed Temperature Sensing (DTS) heated fiber optic (FO) systems presents an unprecedented opportunity for environmental monitoring. We test the method using different combinations of FO cables and heat sources at a range of spacings in a laboratory setting. The amplitude and phase-shift in the heat signal with distance was found to be a function of the soil volumetric heat capacity (referred, here, to as Cs). Estimations of Cs at a range of θ suggest feasibility via responsiveness to the changes in θ (we observed a linear relationship in all FO combinations), though observed bias with decreasing soil water contents (up to 22%) was also reported. Optimization will require further models to account for the finite radius and thermal influence of the FO cables, employed here as “needle probes”. Also, consideration of the range of soil conditions and cable spacing and jacket configurations, suggested here to be valuable subjects of further study and development.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.