39 resultados para low-energy ion implantation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In 2008, the City Council of Rivas-Vaciamadrid (Spain) decided to promote the construction of “Rivasecopolis”, a complex of sustainable buildings in which a new prototype of a zero-energy house would become the office of the Energy Agency. According to the initiative of the City Council, it was decided to recreate the dwelling prototype “Magic-box” which entered the 2005 Solar Decathlon Competition. The original project has been adapted to a new necessities programme, by adding the necessary spaces that allows it to work as an office. A team from university has designed and carried out the direction of the construction site. The new Solar House is conceived as a “testing building”. It is going to become the space for attending citizens in all questions about saving energy, energy efficiency and sustainable construction, having a permanent small exhibition space additional to the working places for the information purpose. At the same time, the building includes the use of experimental passive architecture systems and a monitoring and control system. Collected data will be sent to University to allow developing research work about the experimental strategies included in the building. This paper will describe and analyze the experience of transforming a prototype into a real durable building and the benefits for both university and citizens in learning about sustainability with the building

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract This work is a contribution to the research and development of the intermediate band solar cell (IBSC), a high efficiency photovoltaic concept that features the advantages of both low and high bandgap solar cells. The resemblance with a low bandgap solar cell comes from the fact that the IBSC hosts an electronic energy band -the intermediate band (IB)- within the semiconductor bandgap. This IB allows the collection of sub-bandgap energy photons by means of two-step photon absorption processes, from the valence band (VB) to the IB and from there to the conduction band (CB). The exploitation of these low energy photons implies a more efficient use of the solar spectrum. The resemblance of the IBSC with a high bandgap solar cell is related to the preservation of the voltage: the open-circuit voltage (VOC) of an IBSC is not limited by any of the sub-bandgaps (involving the IB), but only by the fundamental bandgap (defined from the VB to the CB). Nevertheless, the presence of the IB allows new paths for electronic recombination and the performance of the IBSC is degraded at 1 sun operation conditions. A theoretical argument is presented regarding the need for the use of concentrated illumination in order to circumvent the degradation of the voltage derived from the increase in the recombi¬nation. This theory is supported by the experimental verification carried out with our novel characterization technique consisting of the acquisition of photogenerated current (IL)-VOC pairs under low temperature and concentrated light. Besides, at this stage of the IBSC research, several new IB materials are being engineered and our novel character¬ization tool can be very useful to provide feedback on their capability to perform as real IBSCs, verifying or disregarding the fulfillment of the “voltage preservation” principle. An analytical model has also been developed to assess the potential of quantum-dot (QD)-IBSCs. It is based on the calculation of band alignment of III-V alloyed heterojunc-tions, the estimation of the confined energy levels in a QD and the calculation of the de¬tailed balance efficiency. Several potentially useful QD materials have been identified, such as InAs/AlxGa1-xAs, InAs/GaxIn1-xP, InAs1-yNy/AlAsxSb1-x or InAs1-zNz/Alx[GayIn1-y]1-xP. Finally, a model for the analysis of the series resistance of a concentrator solar cell has also been developed to design and fabricate IBSCs adapted to 1,000 suns. Resumen Este trabajo contribuye a la investigación y al desarrollo de la célula solar de banda intermedia (IBSC), un concepto fotovoltaico de alta eficiencia que auna las ventajas de una célula solar de bajo y de alto gap. La IBSC se parece a una célula solar de bajo gap (o banda prohibida) en que la IBSC alberga una banda de energía -la banda intermedia (IB)-en el seno de la banda prohibida. Esta IB permite colectar fotones de energía inferior a la banda prohibida por medio de procesos de absorción de fotones en dos pasos, de la banda de valencia (VB) a la IB y de allí a la banda de conducción (CB). El aprovechamiento de estos fotones de baja energía conlleva un empleo más eficiente del espectro solar. La semejanza antre la IBSC y una célula solar de alto gap está relacionada con la preservación del voltaje: la tensión de circuito abierto (Vbc) de una IBSC no está limitada por ninguna de las fracciones en las que la IB divide a la banda prohibida, sino que está únicamente limitada por el ancho de banda fundamental del semiconductor (definido entre VB y CB). No obstante, la presencia de la IB posibilita nuevos caminos de recombinación electrónica, lo cual degrada el rendimiento de la IBSC a 1 sol. Este trabajo argumenta de forma teórica la necesidad de emplear luz concentrada para evitar compensar el aumento de la recom¬binación de la IBSC y evitar la degradación del voltage. Lo anterior se ha verificado experimentalmente por medio de nuestra novedosa técnica de caracterización consistente en la adquisicin de pares de corriente fotogenerada (IL)-VOG en concentración y a baja temperatura. En esta etapa de la investigación, se están desarrollando nuevos materiales de IB y nuestra herramienta de caracterizacin está siendo empleada para realimentar el proceso de fabricación, comprobando si los materiales tienen capacidad para operar como verdaderas IBSCs por medio de la verificación del principio de preservación del voltaje. También se ha desarrollado un modelo analítico para evaluar el potencial de IBSCs de puntos cuánticos. Dicho modelo está basado en el cálculo del alineamiento de bandas de energía en heterouniones de aleaciones de materiales III-V, en la estimación de la energía de los niveles confinados en un QD y en el cálculo de la eficiencia de balance detallado. Este modelo ha permitido identificar varios materiales de QDs potencialmente útiles como InAs/AlxGai_xAs, InAs/GaxIni_xP, InAsi_yNy/AlAsxSbi_x ó InAsi_zNz/Alx[GayIni_y]i_xP. Finalmente, también se ha desarrollado un modelado teórico para el análisis de la resistencia serie de una célula solar de concentración. Gracias a dicho modelo se han diseñado y fabricado IBSCs adaptadas a 1.000 soles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

GaInP nucleation on Ge(100) often starts by annealing of the Ge(100) substrates under supply of phosphorus precursors. However, the influence on the Ge surface is not well understood. Here, we studied vicinal Ge(100) surfaces annealed under tertiarybutylphosphine (TBP) supply in MOVPE by in situ reflection anisotropy spectroscopy (RAS), X-ray photoelectron spectroscopy (XPS), and low energy electron diffraction (LEED). While XPS reveals a P termination and the presence of carbon on the Ge surface, LEED patterns indicate a disordered surface probably due to by-products of the TBP pyrolysis. However, the TBP annealed Ge(100) surface exhibits a characteristic RA spectrum, which is related to the P termination. RAS allows us to in situ control phosphorus desorption dependent on temperature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We investigated the preparation of single domain Ge(100):As surfaces in a metal-organic vapor phase epitaxy reactor. In situ reflection anisotropy spectra (RAS) of vicinal substrates change when arsenic is supplied either by tertiarybutylarsine or by background As4 during annealing. Low energy electron diffraction shows mutually perpendicular orientations of dimers, scanning tunneling microscopy reveals distinct differences in the step structure, and x-ray photoelectron spectroscopy confirms differences in the As coverage of the Ge(100): As samples. Their RAS signals consist of contributions related to As dimer orientation and to step structure, enabling precise in situ control over preparation of single domain Ge(100): As surfaces.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, the power management techniques implemented in a high-performance node for Wireless Sensor Networks (WSN) based on a RAM-based FPGA are presented. This new node custom architecture is intended for high-end WSN applications that include complex sensor management like video cameras, high compute demanding tasks such as image encoding or robust encryption, and/or higher data bandwidth needs. In the case of these complex processing tasks, yet maintaining low power design requirements, it can be shown that the combination of different techniques such as extensive HW algorithm mapping, smart management of power islands to selectively switch on and off components, smart and low-energy partial reconfiguration, an adequate set of save energy modes and wake up options, all combined, may yield energy results that may compete and improve energy usage of typical low power microcontrollers used in many WSN node architectures. Actually, results show that higher complexity tasks are in favor of HW based platforms, while the flexibility achieved by dynamic and partial reconfiguration techniques could be comparable to SW based solutions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas décadas el mundo ha sufrido un aumento exponencial en la utilización de soluciones tecnológicas, lo que ha desembocado en la necesidad de medir situaciones o estados de los distintos objetos que nos rodean. A menudo, no es posible cablear determinados sensores por lo que ese aumento en la utilización de soluciones tecnológicas, se ha visto traducido en un aumento de la necesidad de utilización de sensórica sin cables para poder hacer telemetrías correctas. A nivel social, el aumento de la demografía mundial está estrechamente ligado al aumento de la necesidad de servicios tecnológicos, por lo que es lógico pensar que a más habitantes, más tecnología será consumida. El objetivo de este Proyecto Final de Carrera está basado en la utilización de diversos nodos o también llamados motas capaces de realizar transferencia de datos en modo sin cables, permitiendo así realizar una aplicación real que solvente problemas generados por el aumento de la densidad de población. En concreto se busca la realización de un sistema de aparcamiento inteligente para estacionamientos en superficie, ayudando por tanto a las tareas de ordenación vehicular dentro del marco de las Smart cities. El sistema está basado en el protocolo de comunicaciones 802.15.4 (ZigBee) cuyas características fundamentales radican en el bajo consumo de energía de los componentes hardware asociados. En primer lugar se realizará un Estado del Arte de las Redes Inalámbricas de Sensores, abordando tanto la arquitectura como el estándar Zigbee y finalmente los componentes XBee que se van a utilizar en este Proyecto. Seguidamente se realizará la algoritmia necesaria para el buen funcionamiento del sistema inteligente de estacionamiento y finalmente se realizará un piloto demostrador del correcto funcionamiento de la tecnología. ABSTRACT In the last decades the world has experienced an exponential increase in the use of technological solutions, which has resulted in the need to measure situations or states of the objects around us. Often, wired sensors cannot be used at many situations, so the increase in the use of technological solutions, has been translated into a increase of the need of using wireless sensors to make correct telemetries. At the social level, the increase in global demographics is closely linked to the increased need for technological services, so it is logical that more people, more technology will be consumed. The objective of this Final Project is based on the use of various nodes or so-called motes, capable of performing data transfer in wireless mode, thereby allowing performing a real application solving problems generated by the increase of population densities. Specifically looking for the realization of a smart outdoor parking system, thus helping to vehicular management tasks within the framework of the Smart Cities. The system is based on the communication protocol 802.15.4 (ZigBee) whose main characteristics lie in the low energy consumption associated to the hardware components. First there will be a State of the Art of Wireless Sensor Networks, addressing both architecture and finally the Zigbee standard XBee components to be used in this project. Then the necessary algorithms will be developed for the proper working of the intelligent parking system and finally there will be a pilot demonstrator validating the whole system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The application of the response of fruits to low energy for mechanical impacts is described, for evaluation of post-harvest ripening of avocadoes of the variety "Hass". An impactor of 50g of weight, provided with an accelerometer, and free-falling from a height of 4 cm, is used; it is interfaced to a computer and uses a special software for retrieving and analyzing the deceleration data. Impact response parameters of individual fruits were compared to firmness of the pulp, measured by the most used method of double-plate puncture, as well as to other physical and physiological parameters: color, skin puncture ethylene production rate and others. Two groups of fruits were carefully selected, stored at 6º C (60 days) and ripened at 20ºC (11 days), and tested during the storage period. It is shown that, as in other types of fruits, impact response can be a good predictor of firmness in avocadoes, obtaining the same accuracy as with destructive firmness measurements. Mathematical and multiple regression models are calculated and compared to measured data, with which a prediction of storage period can be made for these fruits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo general de esta Tesis doctoral fue estudiar la influencia de diversos factores nutricionales sobre los parámetros productivos y el desarrollo del tracto digestivo de pollitas rubias destinadas a la producción de huevos comerciales. Para alcanzar este objetivo se realizaron tres experimentos donde se estudió el cereal principal, el tamaño de partícula del cereal y el nivel de energía y la presentación de los piensos. En el experimento 1 se estudió la influencia del cereal (piensos con enzimas) y la presentación del pienso sobre los parámetros productivos y las características del tracto digestivo en 576 pollitas rubias de 1 a 120 d de edad. De 1 a 45 d de la edad, se utilizaron 4 piensos experimentales organizados de forma factorial con 2 cereales al 50% de inclusión (maíz vs. trigo) y 2 presentaciones del pienso (harina vs. gránulo de 2- mm de diámetro). Cada tratamiento se replicó 6 veces (24 pollitas por réplica). De 46 a 120 d de edad todas las dietas (maíz o trigo) se ofrecieron en harina y por tanto, la única diferencia entre tratamientos fue el cereal utilizado. De 1 a 120 d de edad, las pollitas que recibieron los piensos basados en maíz tuvieron una ganancia de peso vivo (PV) superior (P < 0,05) que las que recibieron los piensos basados en trigo, pero el índice de conversión (IC) fue similar para ambos grupos. De 1 a 45 d de edad, las pollitas alimentadas con gránulo consumieron más pienso (P < 0,001) y tuvieron una ganancia de peso superior (P < 0,001) que las pollitas alimentadas con harina. Gran parte de los efectos beneficiosos de la granulación sobre los parámetros productivos se mantuvieron al final de la prueba (120 d de edad). A los 45 d de edad, el peso relativo de la molleja (PR; g/kg PV) fue superior (P < 0,01) en pollitas alimentadas con maíz que en pollitas alimentadas con trigo. La alimentación en gránulo redujo el PR del tracto gastro intestinal (TGI) y de la molleja (P < 0,001), así como la longitud relativa (LR; cm/kg PV) del intestino delgado (P< 0.01) a ambas edades (45 y 120 d de edad). El tipo de cereal utilizado no afectó al pH del contenido de la molleja a 120 d de edad pero fué inferior (P < 0,01) en las pollitas que recibieron el pienso en harina de 1 a 45 d de la edad que en las que recibieron el pienso en gránulo. Se concluye que el trigo puede substituir al maíz en piensos para pollitas si se acepta una ligera reducción en la ganancia de peso. Asímismo, la alimentación en gránulo de 1 a 45 d de edad aumentó la ganancia de peso a esta edad y al final de la prueba, así como el pH de la molleja a 120 d de edad. La presentación del pienso en gránulo redujo el PR de la molleja y la LR del TGI a 120 d de edad. En el experimento 2 se utilizaron un total de 864 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del cereal de la dieta (500 g de maíz o trigo/kg) y el tamaño de partícula del mismo (molienda con molino de martillos con un diámetro de criba de 6, 8, o 10-mm) sobre los parámetros productivos y las características del TGI de 1 a 120 d de edad. Cada uno de los 6 tratamientos se replicó 6 veces (24 pollitas por réplica). De 1 a 45 d de edad, la ganancia de PV aumentó (P< 0,001) y el IC se mejoró (P < 0,05) al reducir el tamaño de partícula del cereal, pero no se observaron diferencias en el periodo crecimiento de 45 a 120 d de edad. A los 45 d de vida, las pollitas alimentadas con maíz tendieron (P < 0,10) a tener un mayor PR del TGI y del proventrículo y una mayor LR del intestino delgado que las pollitas alimentadas con trigo. Asímismo, el PR del TGI a esta edad, aumentó (P < 0,05) a medida que aumentaba el tamaño de partícula del cereal utilizado. A los 120 d de edad, el tratamiento no afectó el PR de ninguno de los órganos del TGI ni al pH de la molleja. Sin embargo, la LR del intestino delgado fue superior (P < 0,05) para las pollitas alimentadas con trigo que para las pollitas alimentadas con maíz. La LR del TGI se redujó (P < 0,05) al aumentar el tamaño de partícula del cereal. Se concluye que el trigo puede incluirse 500 g/kg en piensos de pollitas de 1 a 120 días de edad y que el tamaño de partícula de los cereales afecta el crecimiento de las pollitas durante los primeros 45 d de vida, pero no después. Por lo tanto, se recomienda moler el cereal utilizado al inicio del período de recría (1 a 45 d de edad) con una criba de diámetro igual o inferior a 8 mm. En el experimento 3 se utilizaron un total de 1.152 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del nivel de energía de la dieta y la presentación del pienso sobre la productividad y las características del TGI. De 1 a 45 d de edad se utilizaron 6 piensos organizados de forma factorial con 3 concentraciones energéticas (baja: 11,44 MJ; media: 12,05 MJ y alta: 12,66 MJ/kg) y 2 presentaciones del pienso (harina vs. gránulo). De 45 a 120 d todos los piensos experimentales se suministraron en forma de harina y por tanto, la única diferencia entre tratamientos fue el nivel de EMAn utilizado. Cada uno de los 6 tratamientos se replicó 8 veces y la unidad experimental fue la jaula con 24 pollitas. De 1 a 120 d de edad, la ganancia de PV y el IC mejoraron a medida que aumentó la EMAn del pienso (P < 0,001). Las pollitas alimentadas con gránulo de 1 a 45 d de edad comieron mas y tuvieron una ganancia de peso superior (P < 0,001) que las alimentadas con harina. En el global de la prueba, la ganancia de PV fue mayor (P < 0,01) para las pollitas alimentadas con piensos en gránulo. A los 45 d de edad, el PR de todos los segmentos del TGI estudiados fue inferior para las pollitas alimentadas con piensos de alta energía que para las pollitas alimentadas con piensos de media o baja energía. A 120 d de edad, el PR de la molleja fue superior (P < 0,01) para las pollitas alimentadas con piensos de baja energía que con los otros piensos. Sin embargo, la LR del TGI no se vió afectada por el nivel de energía de los piensos. A los 45 d de edad, la alimentación con gránulo redujo el PR del proventrículo (P < 0,05), de la molleja (P < 0,001) y del TGI (P < 0.001), así como la LR del intestino delgado (P < 0,05) y de los ciegos (P < 0,001). A pesar de que las pollitas solo recibieron los piensos en gránulo durante los primeros 45 d de vida, la alimentación con gránulos redujo el PR de la molleja y del proventrículo a 120 d de edad. Se concluye que la alimentación con gránulos durante los primeros 45 d de vida mejora el consumo de pienso y el PV de las pollitas a 120 d de edad. Un aumento del nivel de energía de la dieta de 12,0 a 12,7 MJ/kg mejora los parámetros productivos de 1 a 120 d de edad pero reduce el tamaño del proventrículo y de la molleja. En base de estos resultados concluimos que maíz y trigo con enzimas pueden utilizarse indistintamente en piensos para pollitas de 1 a 120 d de edad con sólo una ligera disminución del PV final con trigo. La granulación y la reducción del tamaño de partícula del cereal del pienso de primera edad (1 a 45 d de vida) y el uso de piensos de alta densidad energética, mejoran los PV a 120 d de edad. Por lo tanto, es recomendable moler los cereales con cribas de no más de 8-mm de diámetro. También, la granulación del pienso y el uso de piensos de alta energía (pobres en fibra bruta) pueden reducir el desarrollo del TGI especialmente de la molleja, lo que puede perjudicar el consumo posterior de pienso durante el inicio del ciclo de puesta. ABSTRACT The general objective of this Thesis was to study the effect of different nutritional factors on productive performance and the development of the gastrointestinal tract (GIT) of commercial brown egg-laying pullets from 1 to 120 d of age. In this respect, the influence of type and particle size of the cereal, and feed form, and energy content of the die,t were studied in 3 experiments. In experiment 1, the influence of the main cereal and feed form of the diet on performance and GIT traits was studied in 576 brown-egg laying pullets from 1 to 120 d of age. From 1 to 45 d of age, 4 diets arranged factorially with 2 cereals (maize vs. wheat) and 2 feed forms (mash vs. pellets) were used. Each treatment was replicated 6 times (24 pullets per replicate). From 46 to 120 d of age, all diets were offered in mash form and therefore, the only difference among diets was the cereal used. Cumulatively, pullets fed the maize diets had higher body weight (BW) gain (P< 0.05) but similar feed conversion ratio (FCR) than pullets fed the wheat diets. From 1 to 45 d of age, pullets fed pellets consumed more feed (P < 0.001) and had higher BW gain (P < 0.001) than pullets fed mash. Most of the beneficial effects of pelleting on productive performance of the birds were still evident at 120 d of age. At 45 d of age, gizzard relative weight (RW; g/kg BW) was higher (P < 0.01) in pullets fed maize than in pullets fed wheat. Feeding pellets reduced the RW of the GIT and the gizzard (P < 0.001) as well as the relative length (RL; cm/kg BW) of the small intestine (SI, P < 0.01) at both ages. The pH of the gizzard contents at 120 d of age was not affected by the main cereal of the diet, but was lower in pullets fed mash from 1 to 45 d of age (P < 0.01) than in pullets fed pellets. We conclude that wheat supplemented with enzymes can be used in substitution of maize in pullet diets with only a slight reduction in BW gain at 120 d of age. Also, feeding pellets from 1 to 45 d of age increased BW gain and pH of the gizzard, and reduced the RW of the gizzard and the RL of the GIT at 120 d of age. In experiment 2, a total of 864 brown-egg laying pullets was used to study the effects of the main cereal of the diet (500 g maize or wheat/kg) and particle size of the cereal (hammer milled to pass through a 6, 8, and 10-mm screen) on growth performance and GIT traits from 1 to 120 d of age. Each of the 6 treatments was replicated 6 times (24 pullets per replicate). Type of cereal did not affect pullet performance at any age. From 1 to 45 d of age, BW gain was increased (P < 0.001) and FCR was improved (P < 0.05) as the particle size of the cereal was reduced, but no effects were observed after this age. At 45 d of age, pullets fed maize tended (P < 0.10) to have a heavier RW of the GIT and proventriculus and a higher relative length (RL, cm/kg BW) of the SI than pullets fed wheat. Also at this age, the RW of the GIT increased (P < 0.05) with increases in particle size of the cereal. At 120 d of age, dietary treatment did not affect the RW of any of the organs studied or gizzard pH, but the RL of the SI was higher (P < 0.05) for pullets fed wheat than for pullets fed maize. Also, the RL of the SI was reduced (P < 0.05) as the particle size of the cereal increased. We conclude that 500 g wheat/kg can be included in pullet feeds from 1 to 120 d of age, and that particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Therefore, it is recommended to grind the cereal used in this period with a screen size of no more than 8-mm. In experiment 3, a total of 1,152 one-day-old Hy-Line Brown egg laying pullets were used to study the influence of the energy content of the diet and feed form on productive performance and on several GIT traits. From 1 to 45 d of age, there were 6 diets arranged factorially with 3 concentrations of AMEn (low: 11.66 MJ/kg, medium: 12.05 MJ/kg and high: 12.66 MJ/kg) of the diet and 2 feed forms (mash vs. pellets). From 45 to 120 d all diets were fed in mash form and therefore, the only difference among treatments in this period was the energy content of the diets. Each of the 6 treatments was replicated 8 times and the experimental unit was formed by 24 pullets. Cumulatively, BW gain and FCR improved as the AMEn of the diet increased (P < 0.001). Also, pullets fed pellets from 1 to 45 d of age had higher feed intake and BW gain (P < 0.001) in this period and higher cumulative BW gain (P < 0.01) than pullets fed mash. At 45 d of age, the RWof all the segments of the GIT was lower for pullets fed the high- than for pullets fed the medium- or low- energy diets. At 120 d of age, the RW of the gizzard was higher (P < 0.01) for pullets fed the low energy diets than for pullets fed the other diets. However, the RL of the GIT was not affected by the energy content of the diet. Feeding pellets reduced the RW of the proventriculus (P < 0.05), gizzard (P < 0.001), and GIT (P < 0.001), as well as the RL of the small intestine (P < 0.05) and the ceaca (P < 0.001) at 45 d of age. The effects of feeding pellets on RW of gizzard and proventriculus were still evident at 120 d of age. We concluded that feeding pellets from 1 to 45 d of age improved feed intake and BW of pullets at 120 d of age and that an increase in the energy content of the diet increased pullet performance at all ages but reduced the RW of the proventriculus and gizzard. We conclude that maize and wheat can be used indistinctly in diets for egg laying pullets from 1 to 120 d of age, with only a slight reduction in final BW when wheat is used. Also, particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Pelleting of the feeds, and grinding the cereal with a screen size of no more than 8-mm from 1 to 45 d of age, and the use of high density energy diets are recommended in order to achieve adequate target BW at 120 d of age. However, pelleting of the feed, very fine grinding, and the use of high AMEn diets might hinder the development of the GIT, especially that of the gizzard, which might affect feed intake of laying hens especially at the beginning of the production cycle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Collaborative efforts between the Neutronics and Target Design Group at the Instituto de Fusión Nuclear and the Molecular Spectroscopy Group at the ISIS Pulsed Neutron and Muon Source date back to 2012 in the context of the ESS-Bilbao project. The rationale for these joint activities was twofold, namely: to assess the realm of applicability of the low-energy neutron source proposed by ESS-Bilbao - for details; and to explore instrument capabilities for pulsed-neutron techniques in the range 0.05-3 ms, a time range where ESS-Bilbao and ISIS could offer a significant degree of synergy and complementarity. As part of this collaboration, J.P. de Vicente has spent a three-month period within the ISIS Molecular Spectroscopy Group, to gain hands-on experience on the practical aspects of neutron-instrument design and the requisite neutron-transport simulations. To date, these activities have resulted in a joint MEng thesis as well as a number of publications and contributions to national and international conferences. Building upon these previous works, the primary aim of this report is to provide a self-contained discussion of general criteria for instrument selection at ESS-Bilbao, the first accelerator-driven, low-energy neutron source designed in Spain. To this end, Chapter 1 provides a brief overview of the current design parameters of the accelerator and target station. Neutron moderation is covered in Chapter 2, where we take a closer look at two possible target-moderator-reflector configurations and pay special attention to the spectral and temporal characteristics of the resulting neutron pulses. This discussion provides a necessary starting point to assess the operation of ESSB in short- and long-pulse modes. These considerations are further explored in Chapter 3, dealing with the primary characteristics of ESS-Bilbao as a short- or long-pulse facility in terms of accessible dynamic range and spectral resolution. Other practical aspects including background suppression and the use of fast choppers are also discussed. The guiding principles introduced in the first three chapters are put to use in Chapter 4 where we analyse in some detail the capabilities of a small-angle scattering instrument, as well as how specific scientific requirements can be mapped onto the optimal use of ESS-Bilbao for condensed-matter research. Part 2 of the report contains additional supporting documentation, including a description of the ESSB McStas component, a detailed characterisation of moderator response and neutron pulses, and estimates ofparameters associated with the design and operation of neutron choppers. In closing this brief foreword, we wish to thank both ESS-Bilbao and ISIS for their continuing encouragement and support along the way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Results of previous studies conducted by different researchers have shown that impact techniques can be used to evaluate firmness (Delwiche et al., 1989; Delwiche et al.;1996; Jaren et al., 1992; Ruiz Altisent et al., 1996). To impact the fruit with a small spherical impactor of known mass and radius of curvature and measure the acceleration of the impactor is a technique described by Chen et al. (1985) and used by several researchers for sensing fruit firmness (Jaren et al., 1992; Correa et al.; 1992). The advantages of this method vs. a force sensor that measures the force as a function of time is that the measured impact-acceleration response is independent of the fruit mass and is less sensitive to the variation in the radius of curvature of the fruit (Chen et al., 1996). Ruiz Altisent et al. (1993) developed and used a 50 g impactor with a 19 mm diameter spherical tip, dropping from different height for fruits (apples, pears, avocados, melons, peaches ...). Another impact device for firmness sensing of fruits was developed by Chen and Ruiz Altisent (1996). They designed and fabricated an experimental low-mass impact sensor for high-speed sensing of fruit firmness. The impactor consisted of a semi-spherical impacting tip attached to the end (near the centre of percussion) of a pivoting arm. Impact is done by swinging the impactor to collide with the fruit. It has been implemented for on-line use. In both devices a small accelerometer is mounted behind the impacting tip. Lateral impactor and vertical impactor have been used in laboratory and the results from non-destructive impact tests have contributed to standardise methods to measure fruit firmness: Barreiro (1992) compared impact parameters and results of Magness-Taylor penetration tests for apples, pears, apricots [and peaches; Agulheiro (1994) studied the behaviour of the impact parameters during seven weeks of cold storage of two melon varieties; Ortiz (1998) used low energy impact and NIR procedures to segregate non crispy, non firm and soft peaches. Steinmetz (1996) compared various non-destructive firmness sensors, based on sound, impact and micro-deformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Along the Apulian Adriatic coast, in a cliff south of Trani, a succession of three units (superimposed on one another) of marine and/or paralic environments has been recognised. The lowest unit I is characterised by calcareous/siliciclastic sands (css), micritic limestones (ml), stromatolitic and characean boundstones (scb), characean calcarenites (cc). The sedimentary environment merges from shallow marine, with low energy and temporary episodes of subaerial exposure, to lagoonal with a few exchanges with the sea. The lagoonal stromatolites (scb subunit) grew during a long period of relative stability of a high sea level in tropical climate. The unit I is truncated at the top by an erosion surface on which the unit II overlies; this consists of a basal pebble lag (bpl), silicicla - stic sands (ss), calcareous sands (cs), characean boundstones (cb), brown paleosol (bp). The sedimentary environment varies from beach to lagoon with salinity variations. Although there are indications of seismic events within the subunits cs, unit II deposition took place in a context of relative stability. The unit II is referable to a sea level highstand. Unit III, trangressive on the preceding, consists of white calcareous sands (wcs), calcareous sands and calcarenites (csc), phytoclastic calcirudite and phytohermal travertine (pcpt), mixed deposits (csl, m, k, c), sands (s) and red/brown paleosols (rbp). The sedimentation of this unit was affected by synsedimentary tectonic, attested by seismites found at several heights. Also the unit III is referable to a sea level highstand. The scientific literature has so far generally attributed to the Tyrrhenian (auct.) the deposits of Trani cliff. As part of this work some datings were performed on 10 samples, using the amino acid racemization method (AAR) applied to ostracod carapaces. Four of these samples have been rejected because they have shown in laboratory recent contamination. The numerical ages indicate that the deposits of the Trani cliff are older than MIS 5. The upper part of the unit I has been dated to 355±85 ka BP, thus allowing to assign the lowest stromatolitic subunit (scb) at the MIS 11 peak and the top of the unit I at the MIS 11-MIS 10 interval. The base of the unit II has been dated to 333±118 ka BP, thus attributing the erosion surface that bounds the units I and II to the MIS 10 lowstand and the lower part of the unit II to MIS 9.3. The upper part of the unit II has been dated to 234±35 ka BP, while three other numerical ages come from unit III: 303±35, 267±51, 247±61 ka BP. At present, the numerical ages cannot distinguish the sedimentation ages of units II and III, which are both related to the MIS 9.3- MIS 7.1 time range. However, the position of the units, superimposed one another, and their respective age, allows us to recognise a subsidence phase between MIS 11 and MIS 7, followed by an uplift phase between the MIS 7 and the present day, which led the deposits in their current position. This tectonic pattern is not in full agreement with what is described in the literature for the Apulian foreland.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We have fabricated titanium and vanadium supersaturated silicon layers on top of a silicon substrate by means of ion implantation and pulsed laser melting processes. This procedure has proven to be suitable to fabricate an intermediate band (IB) material, i.e. a semiconductor material with a band of allowed states within the bandgap. Sheet resistance and Hall mobility measurements as a function of the temperature show an unusual behavior that has been well explained in the framework of the IB material theory, supposing that we are dealing with a junction formed by the IB material top layer and the n-Si substrate. Using an analytical model that fits with accuracy the experimental sheet resistance and mobility curves, we have obtained the values of the exponential factor for the thermically activated junction resistance of the bilayer, showing important differences as a function of the implanted element. These results could allow us to engineer the IB properties selecting the implanted element depending on the required properties for a specific application.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los diques flotantes son estructuras que atenúan la energía del oleaje fundamentalmente por reflexión y turbulencia. Aunque presentan importantes ventajas en términos constructivos y medioambientales, su efectividad es limitada y en la práctica sólo se emplean en condiciones climáticas propias de zonas con oleajes poco energéticos. Por otro lado, el buque es la estructura flotante por excelencia y su empleo para el abrigo portuario y costero en determinadas situaciones puede aportar las ventajas propias de los diques flotantes, al tiempo que ampliar el rango de oleajes frente a los que estas estructuras son efectivas. El propósito de esta Tesis Doctoral es evaluar la viabilidad del empleo de buques fondeados como diques flotantes para el abrigo portuario y costero. Para ello, se han realizado ensayos en modelo físico a escala reducida en un canal de oleaje del Centro de Estudios de Puertos y Costas (CEPYC), con el objeto de determinar los coeficientes de transmisión (Ct), reflexión (Cr) y disipación (Cd) de barcos de diversas tipologías y dimensiones, sometidos a diferentes oleajes en distintas situaciones de carga, fondeo y profundidad del emplazamiento. La efectividad de los buques empleados en los ensayos se ha determinado mediante el análisis de dichos coeficientes y su variación con la altura de ola y el periodo de los oleajes incidentes. Además, se han registrado las fuerzas existentes en las cadenas de fondeo con objeto de comprobar la viabilidad del mismo y facilitar una estimación del diámetro de las cadenas que serían necesarias en cada situación. Posteriormente, se han aplicado los resultados obtenidos en los ensayos en modelo físico reducido a dos situaciones de abrigo portuario y costero. La primera aplicación consiste en el empleo de buques como defensa temporal en fases constructivas por medios marítimos, partiendo de la hipótesis de que, actuando como diques flotantes, puede proteger la zona de la obra y ampliar las ventanas temporales de periodos de actividad en obra marítima. Las actividades que se han analizado son las de dragado de fondos, vertidos de material granular y transporte y fondeo de cajones flotantes para diques y muelles. La segunda aplicación estudiada es el empleo de buques para la protección costera y la formación de salientes y tómbolos. Los coeficientes de transmisión obtenidos se han introducido en formulaciones analíticas que permiten prever la evolución de la costa frente a la protección procurada por el buque actuando como dique flotante exento. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Floating breakwaters are structures which attenuate wave energy mainly by reflection and turbulence. They display advantages in terms of construction and ecology, amongst others. However, their use is restricted in practice to certain areas with good climatic conditions and low energy waves. Moreover, ships are the most common floating structures and their use for port and coastal shelter in certain situations could widen the range of applicability in addition to the rest of advantages of floating breakwaters. The purpose of this research is to assess the feasibility of ships anchored as floating breakwaters for port and coastal protection. To that end, tests in a scaled down physical model have been conducted in a wave flume in the Centre of Port and Coastal Studies (CEPYC), in order to determine the transmission (Ct), reflection (Cr) and dissipation (Cd) coefficients of ships of diverse types and dimensions, under different wave, load, anchoring and depth conditions. The effectiveness of the several ships used in the tests has been determined by analyzing these coefficients and their variation with the wave height and period of the incident waves. In addition, the existing forces in the anchor chains have been registered to verify the feasibility of the anchoring systems, as well as to provide an estimation of the diameter of the chains that would be needed in each situation. Subsequently, the results of the tests have been applied to two situations of port and coastal protection. The first one is the use of ships as a temporary defense for maritime works with construction phases by maritime means, on the assumption that, acting as floating breakwaters, they can protect the work area and increase the time windows of periods of activity in maritime works. Dredging, dumping of granular material and transport and positioning of big concrete caissons for docks and breakwaters were the activities analyzed. The second situation is the use of ships for coastal protection and forming salients of sand or tombolos. Some analytical formulations which take into account the transmission coefficients from the tests have been used to predict the evolution of the coastline under the protection given by the ships acting as detached floating breakwaters. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.