926 resultados para attenuazione multipath diversità beacon Bluetooth Low Energy prossimità localizzazione indoor


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las últimas décadas el mundo ha sufrido un aumento exponencial en la utilización de soluciones tecnológicas, lo que ha desembocado en la necesidad de medir situaciones o estados de los distintos objetos que nos rodean. A menudo, no es posible cablear determinados sensores por lo que ese aumento en la utilización de soluciones tecnológicas, se ha visto traducido en un aumento de la necesidad de utilización de sensórica sin cables para poder hacer telemetrías correctas. A nivel social, el aumento de la demografía mundial está estrechamente ligado al aumento de la necesidad de servicios tecnológicos, por lo que es lógico pensar que a más habitantes, más tecnología será consumida. El objetivo de este Proyecto Final de Carrera está basado en la utilización de diversos nodos o también llamados motas capaces de realizar transferencia de datos en modo sin cables, permitiendo así realizar una aplicación real que solvente problemas generados por el aumento de la densidad de población. En concreto se busca la realización de un sistema de aparcamiento inteligente para estacionamientos en superficie, ayudando por tanto a las tareas de ordenación vehicular dentro del marco de las Smart cities. El sistema está basado en el protocolo de comunicaciones 802.15.4 (ZigBee) cuyas características fundamentales radican en el bajo consumo de energía de los componentes hardware asociados. En primer lugar se realizará un Estado del Arte de las Redes Inalámbricas de Sensores, abordando tanto la arquitectura como el estándar Zigbee y finalmente los componentes XBee que se van a utilizar en este Proyecto. Seguidamente se realizará la algoritmia necesaria para el buen funcionamiento del sistema inteligente de estacionamiento y finalmente se realizará un piloto demostrador del correcto funcionamiento de la tecnología. ABSTRACT In the last decades the world has experienced an exponential increase in the use of technological solutions, which has resulted in the need to measure situations or states of the objects around us. Often, wired sensors cannot be used at many situations, so the increase in the use of technological solutions, has been translated into a increase of the need of using wireless sensors to make correct telemetries. At the social level, the increase in global demographics is closely linked to the increased need for technological services, so it is logical that more people, more technology will be consumed. The objective of this Final Project is based on the use of various nodes or so-called motes, capable of performing data transfer in wireless mode, thereby allowing performing a real application solving problems generated by the increase of population densities. Specifically looking for the realization of a smart outdoor parking system, thus helping to vehicular management tasks within the framework of the Smart Cities. The system is based on the communication protocol 802.15.4 (ZigBee) whose main characteristics lie in the low energy consumption associated to the hardware components. First there will be a State of the Art of Wireless Sensor Networks, addressing both architecture and finally the Zigbee standard XBee components to be used in this project. Then the necessary algorithms will be developed for the proper working of the intelligent parking system and finally there will be a pilot demonstrator validating the whole system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The application of the response of fruits to low energy for mechanical impacts is described, for evaluation of post-harvest ripening of avocadoes of the variety "Hass". An impactor of 50g of weight, provided with an accelerometer, and free-falling from a height of 4 cm, is used; it is interfaced to a computer and uses a special software for retrieving and analyzing the deceleration data. Impact response parameters of individual fruits were compared to firmness of the pulp, measured by the most used method of double-plate puncture, as well as to other physical and physiological parameters: color, skin puncture ethylene production rate and others. Two groups of fruits were carefully selected, stored at 6º C (60 days) and ripened at 20ºC (11 days), and tested during the storage period. It is shown that, as in other types of fruits, impact response can be a good predictor of firmness in avocadoes, obtaining the same accuracy as with destructive firmness measurements. Mathematical and multiple regression models are calculated and compared to measured data, with which a prediction of storage period can be made for these fruits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo general de esta Tesis doctoral fue estudiar la influencia de diversos factores nutricionales sobre los parámetros productivos y el desarrollo del tracto digestivo de pollitas rubias destinadas a la producción de huevos comerciales. Para alcanzar este objetivo se realizaron tres experimentos donde se estudió el cereal principal, el tamaño de partícula del cereal y el nivel de energía y la presentación de los piensos. En el experimento 1 se estudió la influencia del cereal (piensos con enzimas) y la presentación del pienso sobre los parámetros productivos y las características del tracto digestivo en 576 pollitas rubias de 1 a 120 d de edad. De 1 a 45 d de la edad, se utilizaron 4 piensos experimentales organizados de forma factorial con 2 cereales al 50% de inclusión (maíz vs. trigo) y 2 presentaciones del pienso (harina vs. gránulo de 2- mm de diámetro). Cada tratamiento se replicó 6 veces (24 pollitas por réplica). De 46 a 120 d de edad todas las dietas (maíz o trigo) se ofrecieron en harina y por tanto, la única diferencia entre tratamientos fue el cereal utilizado. De 1 a 120 d de edad, las pollitas que recibieron los piensos basados en maíz tuvieron una ganancia de peso vivo (PV) superior (P < 0,05) que las que recibieron los piensos basados en trigo, pero el índice de conversión (IC) fue similar para ambos grupos. De 1 a 45 d de edad, las pollitas alimentadas con gránulo consumieron más pienso (P < 0,001) y tuvieron una ganancia de peso superior (P < 0,001) que las pollitas alimentadas con harina. Gran parte de los efectos beneficiosos de la granulación sobre los parámetros productivos se mantuvieron al final de la prueba (120 d de edad). A los 45 d de edad, el peso relativo de la molleja (PR; g/kg PV) fue superior (P < 0,01) en pollitas alimentadas con maíz que en pollitas alimentadas con trigo. La alimentación en gránulo redujo el PR del tracto gastro intestinal (TGI) y de la molleja (P < 0,001), así como la longitud relativa (LR; cm/kg PV) del intestino delgado (P< 0.01) a ambas edades (45 y 120 d de edad). El tipo de cereal utilizado no afectó al pH del contenido de la molleja a 120 d de edad pero fué inferior (P < 0,01) en las pollitas que recibieron el pienso en harina de 1 a 45 d de la edad que en las que recibieron el pienso en gránulo. Se concluye que el trigo puede substituir al maíz en piensos para pollitas si se acepta una ligera reducción en la ganancia de peso. Asímismo, la alimentación en gránulo de 1 a 45 d de edad aumentó la ganancia de peso a esta edad y al final de la prueba, así como el pH de la molleja a 120 d de edad. La presentación del pienso en gránulo redujo el PR de la molleja y la LR del TGI a 120 d de edad. En el experimento 2 se utilizaron un total de 864 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del cereal de la dieta (500 g de maíz o trigo/kg) y el tamaño de partícula del mismo (molienda con molino de martillos con un diámetro de criba de 6, 8, o 10-mm) sobre los parámetros productivos y las características del TGI de 1 a 120 d de edad. Cada uno de los 6 tratamientos se replicó 6 veces (24 pollitas por réplica). De 1 a 45 d de edad, la ganancia de PV aumentó (P< 0,001) y el IC se mejoró (P < 0,05) al reducir el tamaño de partícula del cereal, pero no se observaron diferencias en el periodo crecimiento de 45 a 120 d de edad. A los 45 d de vida, las pollitas alimentadas con maíz tendieron (P < 0,10) a tener un mayor PR del TGI y del proventrículo y una mayor LR del intestino delgado que las pollitas alimentadas con trigo. Asímismo, el PR del TGI a esta edad, aumentó (P < 0,05) a medida que aumentaba el tamaño de partícula del cereal utilizado. A los 120 d de edad, el tratamiento no afectó el PR de ninguno de los órganos del TGI ni al pH de la molleja. Sin embargo, la LR del intestino delgado fue superior (P < 0,05) para las pollitas alimentadas con trigo que para las pollitas alimentadas con maíz. La LR del TGI se redujó (P < 0,05) al aumentar el tamaño de partícula del cereal. Se concluye que el trigo puede incluirse 500 g/kg en piensos de pollitas de 1 a 120 días de edad y que el tamaño de partícula de los cereales afecta el crecimiento de las pollitas durante los primeros 45 d de vida, pero no después. Por lo tanto, se recomienda moler el cereal utilizado al inicio del período de recría (1 a 45 d de edad) con una criba de diámetro igual o inferior a 8 mm. En el experimento 3 se utilizaron un total de 1.152 pollitas rubias Hy-Line de 1 d de edad para estudiar la influencia del nivel de energía de la dieta y la presentación del pienso sobre la productividad y las características del TGI. De 1 a 45 d de edad se utilizaron 6 piensos organizados de forma factorial con 3 concentraciones energéticas (baja: 11,44 MJ; media: 12,05 MJ y alta: 12,66 MJ/kg) y 2 presentaciones del pienso (harina vs. gránulo). De 45 a 120 d todos los piensos experimentales se suministraron en forma de harina y por tanto, la única diferencia entre tratamientos fue el nivel de EMAn utilizado. Cada uno de los 6 tratamientos se replicó 8 veces y la unidad experimental fue la jaula con 24 pollitas. De 1 a 120 d de edad, la ganancia de PV y el IC mejoraron a medida que aumentó la EMAn del pienso (P < 0,001). Las pollitas alimentadas con gránulo de 1 a 45 d de edad comieron mas y tuvieron una ganancia de peso superior (P < 0,001) que las alimentadas con harina. En el global de la prueba, la ganancia de PV fue mayor (P < 0,01) para las pollitas alimentadas con piensos en gránulo. A los 45 d de edad, el PR de todos los segmentos del TGI estudiados fue inferior para las pollitas alimentadas con piensos de alta energía que para las pollitas alimentadas con piensos de media o baja energía. A 120 d de edad, el PR de la molleja fue superior (P < 0,01) para las pollitas alimentadas con piensos de baja energía que con los otros piensos. Sin embargo, la LR del TGI no se vió afectada por el nivel de energía de los piensos. A los 45 d de edad, la alimentación con gránulo redujo el PR del proventrículo (P < 0,05), de la molleja (P < 0,001) y del TGI (P < 0.001), así como la LR del intestino delgado (P < 0,05) y de los ciegos (P < 0,001). A pesar de que las pollitas solo recibieron los piensos en gránulo durante los primeros 45 d de vida, la alimentación con gránulos redujo el PR de la molleja y del proventrículo a 120 d de edad. Se concluye que la alimentación con gránulos durante los primeros 45 d de vida mejora el consumo de pienso y el PV de las pollitas a 120 d de edad. Un aumento del nivel de energía de la dieta de 12,0 a 12,7 MJ/kg mejora los parámetros productivos de 1 a 120 d de edad pero reduce el tamaño del proventrículo y de la molleja. En base de estos resultados concluimos que maíz y trigo con enzimas pueden utilizarse indistintamente en piensos para pollitas de 1 a 120 d de edad con sólo una ligera disminución del PV final con trigo. La granulación y la reducción del tamaño de partícula del cereal del pienso de primera edad (1 a 45 d de vida) y el uso de piensos de alta densidad energética, mejoran los PV a 120 d de edad. Por lo tanto, es recomendable moler los cereales con cribas de no más de 8-mm de diámetro. También, la granulación del pienso y el uso de piensos de alta energía (pobres en fibra bruta) pueden reducir el desarrollo del TGI especialmente de la molleja, lo que puede perjudicar el consumo posterior de pienso durante el inicio del ciclo de puesta. ABSTRACT The general objective of this Thesis was to study the effect of different nutritional factors on productive performance and the development of the gastrointestinal tract (GIT) of commercial brown egg-laying pullets from 1 to 120 d of age. In this respect, the influence of type and particle size of the cereal, and feed form, and energy content of the die,t were studied in 3 experiments. In experiment 1, the influence of the main cereal and feed form of the diet on performance and GIT traits was studied in 576 brown-egg laying pullets from 1 to 120 d of age. From 1 to 45 d of age, 4 diets arranged factorially with 2 cereals (maize vs. wheat) and 2 feed forms (mash vs. pellets) were used. Each treatment was replicated 6 times (24 pullets per replicate). From 46 to 120 d of age, all diets were offered in mash form and therefore, the only difference among diets was the cereal used. Cumulatively, pullets fed the maize diets had higher body weight (BW) gain (P< 0.05) but similar feed conversion ratio (FCR) than pullets fed the wheat diets. From 1 to 45 d of age, pullets fed pellets consumed more feed (P < 0.001) and had higher BW gain (P < 0.001) than pullets fed mash. Most of the beneficial effects of pelleting on productive performance of the birds were still evident at 120 d of age. At 45 d of age, gizzard relative weight (RW; g/kg BW) was higher (P < 0.01) in pullets fed maize than in pullets fed wheat. Feeding pellets reduced the RW of the GIT and the gizzard (P < 0.001) as well as the relative length (RL; cm/kg BW) of the small intestine (SI, P < 0.01) at both ages. The pH of the gizzard contents at 120 d of age was not affected by the main cereal of the diet, but was lower in pullets fed mash from 1 to 45 d of age (P < 0.01) than in pullets fed pellets. We conclude that wheat supplemented with enzymes can be used in substitution of maize in pullet diets with only a slight reduction in BW gain at 120 d of age. Also, feeding pellets from 1 to 45 d of age increased BW gain and pH of the gizzard, and reduced the RW of the gizzard and the RL of the GIT at 120 d of age. In experiment 2, a total of 864 brown-egg laying pullets was used to study the effects of the main cereal of the diet (500 g maize or wheat/kg) and particle size of the cereal (hammer milled to pass through a 6, 8, and 10-mm screen) on growth performance and GIT traits from 1 to 120 d of age. Each of the 6 treatments was replicated 6 times (24 pullets per replicate). Type of cereal did not affect pullet performance at any age. From 1 to 45 d of age, BW gain was increased (P < 0.001) and FCR was improved (P < 0.05) as the particle size of the cereal was reduced, but no effects were observed after this age. At 45 d of age, pullets fed maize tended (P < 0.10) to have a heavier RW of the GIT and proventriculus and a higher relative length (RL, cm/kg BW) of the SI than pullets fed wheat. Also at this age, the RW of the GIT increased (P < 0.05) with increases in particle size of the cereal. At 120 d of age, dietary treatment did not affect the RW of any of the organs studied or gizzard pH, but the RL of the SI was higher (P < 0.05) for pullets fed wheat than for pullets fed maize. Also, the RL of the SI was reduced (P < 0.05) as the particle size of the cereal increased. We conclude that 500 g wheat/kg can be included in pullet feeds from 1 to 120 d of age, and that particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Therefore, it is recommended to grind the cereal used in this period with a screen size of no more than 8-mm. In experiment 3, a total of 1,152 one-day-old Hy-Line Brown egg laying pullets were used to study the influence of the energy content of the diet and feed form on productive performance and on several GIT traits. From 1 to 45 d of age, there were 6 diets arranged factorially with 3 concentrations of AMEn (low: 11.66 MJ/kg, medium: 12.05 MJ/kg and high: 12.66 MJ/kg) of the diet and 2 feed forms (mash vs. pellets). From 45 to 120 d all diets were fed in mash form and therefore, the only difference among treatments in this period was the energy content of the diets. Each of the 6 treatments was replicated 8 times and the experimental unit was formed by 24 pullets. Cumulatively, BW gain and FCR improved as the AMEn of the diet increased (P < 0.001). Also, pullets fed pellets from 1 to 45 d of age had higher feed intake and BW gain (P < 0.001) in this period and higher cumulative BW gain (P < 0.01) than pullets fed mash. At 45 d of age, the RWof all the segments of the GIT was lower for pullets fed the high- than for pullets fed the medium- or low- energy diets. At 120 d of age, the RW of the gizzard was higher (P < 0.01) for pullets fed the low energy diets than for pullets fed the other diets. However, the RL of the GIT was not affected by the energy content of the diet. Feeding pellets reduced the RW of the proventriculus (P < 0.05), gizzard (P < 0.001), and GIT (P < 0.001), as well as the RL of the small intestine (P < 0.05) and the ceaca (P < 0.001) at 45 d of age. The effects of feeding pellets on RW of gizzard and proventriculus were still evident at 120 d of age. We concluded that feeding pellets from 1 to 45 d of age improved feed intake and BW of pullets at 120 d of age and that an increase in the energy content of the diet increased pullet performance at all ages but reduced the RW of the proventriculus and gizzard. We conclude that maize and wheat can be used indistinctly in diets for egg laying pullets from 1 to 120 d of age, with only a slight reduction in final BW when wheat is used. Also, particle size of the cereal affects pullet performance during the first 45 d of life but not thereafter. Pelleting of the feeds, and grinding the cereal with a screen size of no more than 8-mm from 1 to 45 d of age, and the use of high density energy diets are recommended in order to achieve adequate target BW at 120 d of age. However, pelleting of the feed, very fine grinding, and the use of high AMEn diets might hinder the development of the GIT, especially that of the gizzard, which might affect feed intake of laying hens especially at the beginning of the production cycle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La hipótesis de esta tesis es: "La optimización de la ventana considerando simultáneamente aspectos energéticos y aspectos relativos a la calidad ambiental interior (confort higrotérmico, lumínico y acústico) es compatible, siempre que se conozcan y consideren las sinergias existentes entre ellos desde las primeras fases de diseño". En la actualidad se desconocen las implicaciones de muchas de las decisiones tomadas en torno a la ventana; para que su eficiencia en relación a todos los aspectos mencionados pueda hacerse efectiva es necesaria una herramienta que aporte más información de la actualmente disponible en el proceso de diseño, permitiendo así la optimización integral, en función de las circunstancias específicas de cada proyecto. En la fase inicial de esta investigación se realiza un primer acercamiento al tema, a través del estado del arte de la ventana; analizando la normativa existente, los componentes, las prestaciones, los elementos experimentales y la investigación. Se observa que, en ocasiones, altos requisitos de eficiencia energética pueden suponer una disminución de las prestaciones del sistema en relación con la calidad ambiental interior, por lo que surge el interés por integrar al análisis energético aspectos relativos a la calidad ambiental interior, como son las prestaciones lumínicas y acústicas y la renovación de aire. En este punto se detecta la necesidad de realizar un estudio integral que incorpore los distintos aspectos y evaluar las sinergias que se dan entre las distintas prestaciones que cumple la ventana. Además, del análisis de las soluciones innovadoras y experimentales se observa la dificultad de determinar en qué medida dichas soluciones son eficientes, ya que son soluciones complejas, no caracterizadas y que no están incorporadas en las metodologías de cálculo o en las bases de datos de los programas de simulación. Por lo tanto, se plantea una segunda necesidad, generar una metodología experimental para llevar a cabo la caracterización y el análisis de la eficiencia de sistemas innovadores. Para abordar esta doble necesidad se plantea la optimización mediante una evaluación del elemento acristalado que integre la eficiencia energética y la calidad ambiental interior, combinando la investigación teórica y la investigación experimental. En el ámbito teórico, se realizan simulaciones, cálculos y recopilación de información de distintas tipologías de hueco, en relación con cada prestación de forma independiente (acústica, iluminación, ventilación). A pesar de haber partido con un enfoque integrador, resulta difícil esa integración detectándose una carencia de herramientas disponible. En el ámbito experimental se desarrolla una metodología para la evaluación del rendimiento y de aspectos ambientales de aplicación a elementos innovadores de difícil valoración mediante la metodología teórica. Esta evaluación consiste en el análisis comparativo experimental entre el elemento innovador y un elemento estándar; para llevar a cabo este análisis se han diseñado dos espacios iguales, que denominamos módulos de experimentación, en los que se han incorporado los dos sistemas; estos espacios se han monitorizado, obteniéndose datos de consumo, temperatura, iluminancia y humedad relativa. Se ha realizado una medición durante un periodo de nueve meses y se han analizado y comparado los resultados, obteniendo así el comportamiento real del sistema. Tras el análisis teórico y el experimental, y como consecuencia de esa necesidad de integrar el conocimiento existente se propone una herramienta de evaluación integral del elemento acristalado. El desarrollo de esta herramienta se realiza en base al procedimiento de diagnóstico de calidad ambiental interior (CAI) de acuerdo con la norma UNE 171330 “Calidad ambiental en interiores”, incorporando el factor de eficiencia energética. De la primera parte del proceso, la parte teórica y el estado del arte, se obtendrán los parámetros que son determinantes y los valores de referencia de dichos parámetros. En base a los parámetros relevantes obtenidos se da forma a la herramienta, que consiste en un indicador de producto para ventanas que integra todos los factores analizados y que se desarrolla según la Norma UNE 21929 “Sostenibilidad en construcción de edificios. Indicadores de sostenibilidad”. ABSTRACT The hypothesis of this thesis is: "The optimization of windows considering energy and indoor environmental quality issues simultaneously (hydrothermal comfort, lighting comfort, and acoustic comfort) is compatible, provided that the synergies between these issues are known and considered from the early stages of design ". The implications of many of the decisions made on this item are currently unclear. So that savings can be made, an effective tool is needed to provide more information during the design process than the currently available, thus enabling optimization of the system according to the specific circumstances of each project. The initial phase deals with the study from an energy efficiency point of view, performing a qualitative and quantitative analysis of commercial, innovative and experimental windows. It is observed that sometimes, high-energy efficiency requirements may mean a reduction in the system's performance in relation to user comfort and health, that's why there is an interest in performing an integrated analysis of indoor environment aspects and energy efficiency. At this point a need for a comprehensive study incorporating the different aspects is detected, to evaluate the synergies that exist between the various benefits that meet the window. Moreover, from the analysis of experimental and innovative windows, a difficulty in establishing to what extent these solutions are efficient is observed; therefore, there is a need to generate a methodology for performing the analysis of the efficiency of the systems. Therefore, a second need arises, to generate an experimental methodology to perform characterization and analysis of the efficiency of innovative systems. To address this dual need, the optimization of windows by an integrated evaluation arises, considering energy efficiency and indoor environmental quality, combining theoretical and experimental research. In the theoretical field, simulations and calculations are performed; also information about the different aspects of indoor environment (acoustics, lighting, ventilation) is gathered independently. Despite having started with an integrative approach, this integration is difficult detecting lack available tools. In the experimental field, a methodology for evaluating energy efficiency and indoor environment quality is developed, to be implemented in innovative elements which are difficult to evaluate using a theoretical methodology This evaluation is an experimental comparative analysis between an innovative element and a standard element. To carry out this analysis, two equal spaces, called experimental cells, have been designed. These cells have been monitored, obtaining consumption, temperature, luminance and relative humidity data. Measurement has been performed during nine months and results have been analyzed and compared, obtaining results of actual system behavior. To advance this optimization, windows have been studied from the point of view of energy performance and performance in relation to user comfort and health: thermal comfort, acoustic comfort, lighting comfort and air quality; proposing the development of a methodology for an integrated analysis including energy efficiency and indoor environment quality. After theoretical and experimental analysis and as a result of the need to integrate existing knowledge, a comprehensive evaluation procedure for windows is proposed. This evaluation procedure is developed according to the UNE 171330 "Indoor Environmental Quality", also incorporating energy efficiency and cost as factors to evaluate. From the first part of the research process, outstanding parameters are chosen and reference values of these parameters are set. Finally, based on the parameters obtained, an indicator is proposed as windows product indicator. The indicator integrates all factors analyzed and is developed according to ISO 21929-1:2011"Sustainability in building construction. Sustainability indicators. Part 1: Framework for the development of indicators and a core set of indicators for buildings".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Collaborative efforts between the Neutronics and Target Design Group at the Instituto de Fusión Nuclear and the Molecular Spectroscopy Group at the ISIS Pulsed Neutron and Muon Source date back to 2012 in the context of the ESS-Bilbao project. The rationale for these joint activities was twofold, namely: to assess the realm of applicability of the low-energy neutron source proposed by ESS-Bilbao - for details; and to explore instrument capabilities for pulsed-neutron techniques in the range 0.05-3 ms, a time range where ESS-Bilbao and ISIS could offer a significant degree of synergy and complementarity. As part of this collaboration, J.P. de Vicente has spent a three-month period within the ISIS Molecular Spectroscopy Group, to gain hands-on experience on the practical aspects of neutron-instrument design and the requisite neutron-transport simulations. To date, these activities have resulted in a joint MEng thesis as well as a number of publications and contributions to national and international conferences. Building upon these previous works, the primary aim of this report is to provide a self-contained discussion of general criteria for instrument selection at ESS-Bilbao, the first accelerator-driven, low-energy neutron source designed in Spain. To this end, Chapter 1 provides a brief overview of the current design parameters of the accelerator and target station. Neutron moderation is covered in Chapter 2, where we take a closer look at two possible target-moderator-reflector configurations and pay special attention to the spectral and temporal characteristics of the resulting neutron pulses. This discussion provides a necessary starting point to assess the operation of ESSB in short- and long-pulse modes. These considerations are further explored in Chapter 3, dealing with the primary characteristics of ESS-Bilbao as a short- or long-pulse facility in terms of accessible dynamic range and spectral resolution. Other practical aspects including background suppression and the use of fast choppers are also discussed. The guiding principles introduced in the first three chapters are put to use in Chapter 4 where we analyse in some detail the capabilities of a small-angle scattering instrument, as well as how specific scientific requirements can be mapped onto the optimal use of ESS-Bilbao for condensed-matter research. Part 2 of the report contains additional supporting documentation, including a description of the ESSB McStas component, a detailed characterisation of moderator response and neutron pulses, and estimates ofparameters associated with the design and operation of neutron choppers. In closing this brief foreword, we wish to thank both ESS-Bilbao and ISIS for their continuing encouragement and support along the way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Results of previous studies conducted by different researchers have shown that impact techniques can be used to evaluate firmness (Delwiche et al., 1989; Delwiche et al.;1996; Jaren et al., 1992; Ruiz Altisent et al., 1996). To impact the fruit with a small spherical impactor of known mass and radius of curvature and measure the acceleration of the impactor is a technique described by Chen et al. (1985) and used by several researchers for sensing fruit firmness (Jaren et al., 1992; Correa et al.; 1992). The advantages of this method vs. a force sensor that measures the force as a function of time is that the measured impact-acceleration response is independent of the fruit mass and is less sensitive to the variation in the radius of curvature of the fruit (Chen et al., 1996). Ruiz Altisent et al. (1993) developed and used a 50 g impactor with a 19 mm diameter spherical tip, dropping from different height for fruits (apples, pears, avocados, melons, peaches ...). Another impact device for firmness sensing of fruits was developed by Chen and Ruiz Altisent (1996). They designed and fabricated an experimental low-mass impact sensor for high-speed sensing of fruit firmness. The impactor consisted of a semi-spherical impacting tip attached to the end (near the centre of percussion) of a pivoting arm. Impact is done by swinging the impactor to collide with the fruit. It has been implemented for on-line use. In both devices a small accelerometer is mounted behind the impacting tip. Lateral impactor and vertical impactor have been used in laboratory and the results from non-destructive impact tests have contributed to standardise methods to measure fruit firmness: Barreiro (1992) compared impact parameters and results of Magness-Taylor penetration tests for apples, pears, apricots [and peaches; Agulheiro (1994) studied the behaviour of the impact parameters during seven weeks of cold storage of two melon varieties; Ortiz (1998) used low energy impact and NIR procedures to segregate non crispy, non firm and soft peaches. Steinmetz (1996) compared various non-destructive firmness sensors, based on sound, impact and micro-deformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Along the Apulian Adriatic coast, in a cliff south of Trani, a succession of three units (superimposed on one another) of marine and/or paralic environments has been recognised. The lowest unit I is characterised by calcareous/siliciclastic sands (css), micritic limestones (ml), stromatolitic and characean boundstones (scb), characean calcarenites (cc). The sedimentary environment merges from shallow marine, with low energy and temporary episodes of subaerial exposure, to lagoonal with a few exchanges with the sea. The lagoonal stromatolites (scb subunit) grew during a long period of relative stability of a high sea level in tropical climate. The unit I is truncated at the top by an erosion surface on which the unit II overlies; this consists of a basal pebble lag (bpl), silicicla - stic sands (ss), calcareous sands (cs), characean boundstones (cb), brown paleosol (bp). The sedimentary environment varies from beach to lagoon with salinity variations. Although there are indications of seismic events within the subunits cs, unit II deposition took place in a context of relative stability. The unit II is referable to a sea level highstand. Unit III, trangressive on the preceding, consists of white calcareous sands (wcs), calcareous sands and calcarenites (csc), phytoclastic calcirudite and phytohermal travertine (pcpt), mixed deposits (csl, m, k, c), sands (s) and red/brown paleosols (rbp). The sedimentation of this unit was affected by synsedimentary tectonic, attested by seismites found at several heights. Also the unit III is referable to a sea level highstand. The scientific literature has so far generally attributed to the Tyrrhenian (auct.) the deposits of Trani cliff. As part of this work some datings were performed on 10 samples, using the amino acid racemization method (AAR) applied to ostracod carapaces. Four of these samples have been rejected because they have shown in laboratory recent contamination. The numerical ages indicate that the deposits of the Trani cliff are older than MIS 5. The upper part of the unit I has been dated to 355±85 ka BP, thus allowing to assign the lowest stromatolitic subunit (scb) at the MIS 11 peak and the top of the unit I at the MIS 11-MIS 10 interval. The base of the unit II has been dated to 333±118 ka BP, thus attributing the erosion surface that bounds the units I and II to the MIS 10 lowstand and the lower part of the unit II to MIS 9.3. The upper part of the unit II has been dated to 234±35 ka BP, while three other numerical ages come from unit III: 303±35, 267±51, 247±61 ka BP. At present, the numerical ages cannot distinguish the sedimentation ages of units II and III, which are both related to the MIS 9.3- MIS 7.1 time range. However, the position of the units, superimposed one another, and their respective age, allows us to recognise a subsidence phase between MIS 11 and MIS 7, followed by an uplift phase between the MIS 7 and the present day, which led the deposits in their current position. This tectonic pattern is not in full agreement with what is described in the literature for the Apulian foreland.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los diques flotantes son estructuras que atenúan la energía del oleaje fundamentalmente por reflexión y turbulencia. Aunque presentan importantes ventajas en términos constructivos y medioambientales, su efectividad es limitada y en la práctica sólo se emplean en condiciones climáticas propias de zonas con oleajes poco energéticos. Por otro lado, el buque es la estructura flotante por excelencia y su empleo para el abrigo portuario y costero en determinadas situaciones puede aportar las ventajas propias de los diques flotantes, al tiempo que ampliar el rango de oleajes frente a los que estas estructuras son efectivas. El propósito de esta Tesis Doctoral es evaluar la viabilidad del empleo de buques fondeados como diques flotantes para el abrigo portuario y costero. Para ello, se han realizado ensayos en modelo físico a escala reducida en un canal de oleaje del Centro de Estudios de Puertos y Costas (CEPYC), con el objeto de determinar los coeficientes de transmisión (Ct), reflexión (Cr) y disipación (Cd) de barcos de diversas tipologías y dimensiones, sometidos a diferentes oleajes en distintas situaciones de carga, fondeo y profundidad del emplazamiento. La efectividad de los buques empleados en los ensayos se ha determinado mediante el análisis de dichos coeficientes y su variación con la altura de ola y el periodo de los oleajes incidentes. Además, se han registrado las fuerzas existentes en las cadenas de fondeo con objeto de comprobar la viabilidad del mismo y facilitar una estimación del diámetro de las cadenas que serían necesarias en cada situación. Posteriormente, se han aplicado los resultados obtenidos en los ensayos en modelo físico reducido a dos situaciones de abrigo portuario y costero. La primera aplicación consiste en el empleo de buques como defensa temporal en fases constructivas por medios marítimos, partiendo de la hipótesis de que, actuando como diques flotantes, puede proteger la zona de la obra y ampliar las ventanas temporales de periodos de actividad en obra marítima. Las actividades que se han analizado son las de dragado de fondos, vertidos de material granular y transporte y fondeo de cajones flotantes para diques y muelles. La segunda aplicación estudiada es el empleo de buques para la protección costera y la formación de salientes y tómbolos. Los coeficientes de transmisión obtenidos se han introducido en formulaciones analíticas que permiten prever la evolución de la costa frente a la protección procurada por el buque actuando como dique flotante exento. Finalmente se han redactado las conclusiones de la investigación y se han propuesto nuevas líneas de investigación relacionadas con esta Tesis Doctoral. Floating breakwaters are structures which attenuate wave energy mainly by reflection and turbulence. They display advantages in terms of construction and ecology, amongst others. However, their use is restricted in practice to certain areas with good climatic conditions and low energy waves. Moreover, ships are the most common floating structures and their use for port and coastal shelter in certain situations could widen the range of applicability in addition to the rest of advantages of floating breakwaters. The purpose of this research is to assess the feasibility of ships anchored as floating breakwaters for port and coastal protection. To that end, tests in a scaled down physical model have been conducted in a wave flume in the Centre of Port and Coastal Studies (CEPYC), in order to determine the transmission (Ct), reflection (Cr) and dissipation (Cd) coefficients of ships of diverse types and dimensions, under different wave, load, anchoring and depth conditions. The effectiveness of the several ships used in the tests has been determined by analyzing these coefficients and their variation with the wave height and period of the incident waves. In addition, the existing forces in the anchor chains have been registered to verify the feasibility of the anchoring systems, as well as to provide an estimation of the diameter of the chains that would be needed in each situation. Subsequently, the results of the tests have been applied to two situations of port and coastal protection. The first one is the use of ships as a temporary defense for maritime works with construction phases by maritime means, on the assumption that, acting as floating breakwaters, they can protect the work area and increase the time windows of periods of activity in maritime works. Dredging, dumping of granular material and transport and positioning of big concrete caissons for docks and breakwaters were the activities analyzed. The second situation is the use of ships for coastal protection and forming salients of sand or tombolos. Some analytical formulations which take into account the transmission coefficients from the tests have been used to predict the evolution of the coastline under the protection given by the ships acting as detached floating breakwaters. Finally, the conclusions of the research have been addressed and the proposal of new lines of work related to the topic has been made.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It has been proposed that the use of self-assembled quantum dot (QD) arrays can break the Shockley-Queisser efficiency limit by extending the absorption of solar cells into the low-energy photon range while preserving their output voltage. This would be possible if the infrared photons are absorbed in the two sub-bandgap QD transitions simultaneously and the energy of two photons is added up to produce one single electron-hole pair, as described by the intermediate band model. Here, we present an InAs/Al 0.25Ga 0.75As QD solar cell that exhibits such electrical up-conversion of low-energy photons. When the device is monochromatically illuminated with 1.32 eV photons, open-circuit voltages as high as 1.58 V are measured (for a total gap of 1.8 eV). Moreover, the photocurrent produced by illumination with photons exciting the valence band to intermediate band (VB-IB) and the intermediate band to conduction band (IB-CB) transitions can be both spectrally resolved. The first corresponds to the QD inter-band transition and is observable for photons of energy mayor que 1 eV, and the later corresponds to the QD intra-band transition and peaks around 0.5 eV. The voltage up-conversion process reported here for the first time is the key to the use of the low-energy end of the solar spectrum to increase the conversion efficiency, and not only the photocurrent, of single-junction photovoltaic devices. In spite of the low absorption threshold measured in our devices - 0.25 eV - we report open-circuit voltages at room temperature as high as 1.12 V under concentrated broadband illumination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aunque las primeras fábricas de tubos de poliéster reforzado con fibra de vidrio en España datan del año 1984, no es sino hasta el año 1996 cuando se comienza su utilización masiva como un sustituto de las tuberías de fribrocemento, que ya habían sido prohibidas por la legislación, debido a los efectos cancerígenos de este material. Desde entonces se ha prodigado la utilización de todas las diferentes tipologías de esta clase de tubería, de conformidad a los procesos de fabricación empleados que se encuentran recopilados en el AWWA Manual M45 (Fiberglass Pipe Design), obteniéndose muy diversos resultados. Durante estos años, ha surgido una creciente preocupación en los usuarios de este tipo de tuberías dadas las continuas y numerosas averías en todo el ámbito geográfico. Esto ha promovido el desarrollo de la presente investigaicón, que se ha dividido en dos partes y que ha concluido con la determinación de un nuevo mecanismo específico de fractura. La primera parte se centró en la obtención y desarrollo del modelo teórico que hemos venido a denominar como "Teoría de la Caja Mecánicamente Contaminada", y que está basado en la contaminación o separación por un impacto de dos de las tres capas que forman la tubería, la capa intermedia de arena y la capa más interna o "inner layer". La consecuencia es la disminución del canto resistente, la rotura del inner layer y la entrada de fluido a la capa de arena. Para la evaluación de la magnitud de esta separación se ha desarrollado un modelo analítico que ha determinado la existencia de una relación cuadrática que la rige, y que ha sido verificado mediante ensayos de impacto sobre probetas de tuberías, alcanzando ajustes de hasta el 92%. Así, se ha determinado que impactos de muy baja intensidad, del entorno de 90 a 160 Julios en tuberías Filament Winding continuo PN 16-20 (de 800 a 1000mm) pueden comprometer seriamente la integridad estructural de la tubería sin dejar, en un principio, muesca o traza alguna que pueda alertar del problema. Los siguientes pasos en el estudio se dirigieron a determinar qué otros mecanismos, aparte del golpe, podrían contaminar la tubería y a estudiar el consiguiente avance de la fractura a las capas externas. Se trataba además de analizar la aparición en el tubo de unas misteriosas manchas en forma de "piel de leopardo" y de otros fenómenos aparecidos en las averías como que algunas de las deformaciones de la rotura por presión interna son hacia el interior del tubo y no al revés, como habría sido de esperar a priori. Se optó entonces por comenzar la que ha constituido la segunda parte de la investigación. Para ello se recurrió a realizar ensayos hidráulicos en banco de pruebas a alta presión, cuyos resultados fueron sorprendentes al descubrir que en el proceso se producía la hidrólisis de la resina de poliéster no catalizada que fluía hacia el exterior del tubo. Como consecuencia se llevaron a cabo nuevos ensayos físicos y químicos para estudiar la migración del material y la hidrólisis producida en el proceso de fractura. En este estudio, resultó muy relevante el hecho de sobrepasar o no la presión que producía el desagarro entre las capas del tubo. En definitiva, en esta investigación, que ha constado de estudios analíticos y estudios experimentales, químicos y numéricos, se ha determinado un nuevo mecanismo de fractura que explica gran parte de los fallos acontecidos en las tuberías de poliéster reforzado con fibra de vidrio. Como aplicación se exponen recomendaciones para mejorar el comportamiento mecánico de esta tipología y evitar así los sobrecostes millonarios producidos por su reposición. Numerous and continuous failures in fiberglass reinforced polyester pipes of different companies and manufacturing processes of the AWWA Manual M45 (Fiberglass Pipe Design), have prompted the development of this research, that has concluded with a specific mechanism describing pipe fractures. This research was carried out via two independent studies. The first one is the development of the hypothesis that turned into the Mechanically Contaminated Layer Theory. This theory describes the fracture mchanism which explains a significant part of massive failures due to the existence of a sand layer placed near the neutral axis in the core making the composite very sensitive to impacts in fibreglass reinforced polyester pipes. These failures create interface delamination and consequently fluid can leak into supporting sand backfill thereby iniating the fracture process. In order to assess the delimination magnitude, an analytic method is developed and a squared root law between delamination and energy applied proposed. Vertical blunt ram testts on samples extracted from complete pipes have been carried out to verify this theory, reaching a goodness of fit up to 92%. It is concluded that low energy impacts, around 90-160J in 800-1000mm diameter PN 16-20 continuous filament winding pipes, can seriously compromise their structural integraty with no external trace. The next step in the study was to determine what other mechanism, apart from the brittle hit, could contaminate the pipe and to analyse the consequente advance of the fracture to the external layers. Another aim was to analyse two phenomena occurred in real pipe failures. The first one is the appearance on the tube of "leopard fur" stains on some of the analysed failures, and the other phenomenon is the "inverse fracture", in which the deformations of the failure due to internal pressure are towards the inside of the tube and not the other way round, as it would be expected. It was then chosen to follow a new branch of the investigation by hydraulic high-pressure bench tests that study seepage and load transmission. The results were very surprising as it was discovered that in the process, hydrolysis of the non-catalysed polyester resin occured, flowing towards the outer of the pipe, which entailed the development of chemical and physical tests of the exuded material to study material migration and hydrolysis of the fracture process. In this particular study it was relevant to exceed or not the pressure that produced the rip between the layers of the tube. In conclusion, a new breakage mechanism in FRP pies with sand-filled layer has been found, which explains a high part of the failure global cases. The whole failure process is justified by the Mechanically Contaminated Layer Theory, which has been corroborated by means of analytical, numerical and experimental studies. Several recommendations are also provided in order to improve the mechanical behaviour of this typology and avoid the millionaire overruns generated by its massive failures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La escasez de recursos, la desertización creciente y el previsible calentamiento global forman un escenario físico sin precedentes que urge la revisión de las relaciones entre arquitectura y agua en la urbanización de los paisajes secos, donde la aridez es el factor limitante principal. Cuestionar la idea de escasez, la de residuo o la de confort es el punto de partida para analizar la hidrología urbana. La condición ubicua y dinámica del agua, sus continuos cambios de estado y las implicaciones energéticas y ambientales involucradas argumentan a favor de un entendimiento integral, holístico, que aborda el diseño en relación a lo paisajístico, lo infraestructural y lo ambiental como un único ámbito de investigación, planteado en términos no solo de materia o de escasez, sino de energía. Este trabajo se interesa por el rol de la arquitectura en este proyecto conjunto, integral, del espacio físico con el ciclo hidrológico donde lo orgánico, lo geológico y lo atmosférico están ligados, y donde las categorías de lo hidrológico y lo hidráulico se confunden. Las profundas implicaciones culturales en la construcción de la naturaleza urbana y en la relación con el cuerpo humano adquieren especial notoriedad en los modelos de paisaje y de espacio público adoptados, importados desde las geografías húmedas, y en la estigmatización del agua desde los presupuestos del higienismo decimonónico, que conduce al hidrofugado general de una ciudad aséptica y estéril, que se extiende hasta las envolventes de fachadas estancas y los interiores blancos y satinados. La búsqueda de referentes salta la modernidad hacia contextos de baja energía como el oasis tradicional de las tierras áridas, que concilia la formación de un ecosistema productivo con la climatización de un espacio público exterior, o los ambientes aislados de la investigación aeroespacial, con ciclos cerrados de materia. Las condiciones del ciclo del agua, como la vinculación con el suelo y el territorio, la capacidad de disolver, de mezclarse y de lavar, su volumen variable y su papel como termorregulador señalan el interés que características físicas como la fluidez, la biodiversidad, la hidrofilia y la transpirabilidad tienen para una arquitectura con competencias hidráulicas y un espacio urbano transparente a los procesos del agua. La morfología y localización, la elección de escalas, jerarquías y relaciones entre espacios y la reformulación de los sistemas constructivos aparecen como herramientas y categorías propias desde las que proponer mejores respuestas a problemas como la deshidratación, la erosión y la contaminación. Una urbanización permeable e hidrófila que absorba el agua como un recurso valioso, nuevos ensamblajes para la bioquímica urbana (que introduzcan una idea de limpieza más próxima a fertilidad que a la desinfección), y el diseño de las condiciones atmosféricas a través de una arquitectura transpirable, que se empapa y rezuma frescor, son las claves de este nuevo proyecto. La ciudad se piensa como una síntesis multiescalar de espacios hidráulicos que aporta mayor resiliencia frente a la desertificación y las condiciones climáticas extremas, y mayor visibilidad en la escena pública al agua y a las inevitables conexiones entre ecología y economía. Pero también es una oportunidad para revisar las categorías disciplinares, para renovar las consistencias materiales, las calidades ambientales y las relaciones entre el cuerpo y el espacio. ABSTRACT The shortage of resources, foreseeable global warming and increasing desertification create an unprecedented prospect that question the existing relationships between water and architecture, in the urbanization of the arid lands. The awareness of the huge volumes of water that pierce unnoticed through urban space, their impact on the landscape as well as on environmental qualities, promote a design field where cultural, social and political considerations intersect, related to the body and the physical experience of space within the built environment. Fluidity and ubiquity, solution ability, variability and cyclical processes are characteristic of water as material, directly related with the fields of potential, chemical and thermal energy and the reality of its mass, as it occupies a changing volume in space. These are also the imposing cross sections that water introduces into the project, that argue in favor of a comprehensive and holistic understanding, of addressing design in relationship to landscape, infrastructure and environmental issues as a one single area of research. This work attempts to investigate how architecture, with its specific tools, can partake in the design of water cycle in the space, linking the organic, geological, and atmospheric, blurring the lines between hydrology and hydraulic. It aims to identify issues, within the continuous query associated with water, that deal with the architectural project and may have here better results. The deep cultural implications in the construction of urban nature and the relationship with the body, acquire special notoriety in the models of landscape and public space adopted, imported from humid geographies. Also in the stigmatization of water from the premises of nineteenth- century hygienics, which lead to the entire waterproofing of an aseptic and sterile city, to the sealed facades and white and polished interiors. The search for alternative references goes beyond modernity towards a mindset of low energy, as the traditional oasis of arid lands, which aims to reconcile the formation of a productive ecosystem with the conditioning of an outdoor public space, or the controlled environments of aerospace research, with closed cycles of matter. Fluidity, biodiversity, hydrophilicity and breathability are characteristic of an architecture with hydraulic competences. The distributing phenomenon of water, its necessary connectivity to the ground and to small cycles in the ecosystems, shows strong affinities with an infrastructural architecture, as an alternative to large-scale centralized networks. Its volume has approximated to the dimensions of the built space, promoting a new found condition of coexistence. A permeable and hydrophilic urbanization absorbs water as a valuable resource; new assemblies for urban biochemistry introduce an idea of sanitation closer to fertility than to disinfection; a breathable architecture that soaks and exudes freshness design the atmospheric conditions: these are the essential components of this new project. The city is understood as a synthesis of multi-scale hydraulic spaces that provides greater resilience against desertification and increases the visibility of water and the linkages between ecology and economy in the public scene. It is also an opportunity to review the disciplinary categories of architecture, the material consistencies, the environmental qualities and the relationship between body and space.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo de la fusión nuclear y desarrollándose en paralelo a ITER (International Thermonuclear Experimental Reactor), el proyecto IFMIF (International Fusion Material Irradiation Facility) se enmarca dentro de las actividades complementarias encaminadas a solucionar las barreras tecnológicas que aún plantea la fusión. En concreto IFMIF es una instalación de irradiación cuya misión es caracterizar materiales resistentes a condiciones extremas como las esperadas en los futuros reactores de fusión como DEMO (DEMOnstration power plant). Consiste de dos aceleradores de deuterones que proporcionan un haz de 125 mA y 40 MeV cada uno, que al colisionar con un blanco de litio producen un flujo neutrónico intenso (1017 neutrones/s) con un espectro similar al de los neutrones de fusión [1], [2]. Dicho flujo neutrónico es empleado para irradiar los diferentes materiales candidatos a ser empleados en reactores de fusión, y las muestras son posteriormente examinadas en la llamada instalación de post-irradiación. Como primer paso en tan ambicioso proyecto, una fase de validación y diseño llamada IFMIFEVEDA (Engineering Validation and Engineering Design Activities) se encuentra actualmente en desarrollo. Una de las actividades contempladas en esta fase es la construcción y operación de una acelarador prototipo llamado LIPAc (Linear IFMIF Prototype Accelerator). Se trata de un acelerador de deuterones de alta intensidad idéntico a la parte de baja energía de los aceleradores de IFMIF. Los componentes del LIPAc, que será instalado en Japón, son suministrados por diferentes países europeos. El acelerador proporcionará un haz continuo de deuterones de 9 MeV con una potencia de 1.125 MW que tras ser caracterizado con diversos instrumentos deberá pararse de forma segura. Para ello se requiere un sistema denominado bloque de parada (Beam Dump en inglés) que absorba la energía del haz y la transfiera a un sumidero de calor. España tiene el compromiso de suministrar este componente y CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) es responsable de dicha tarea. La pieza central del bloque de parada, donde se para el haz de iones, es un cono de cobre con un ángulo de 3.5o, 2.5 m de longitud y 5 mm de espesor. Dicha pieza está refrigerada por agua que fluye en su superficie externa por el canal que se forma entre el cono de cobre y otra pieza concéntrica con éste. Este es el marco en que se desarrolla la presente tesis, cuyo objeto es el diseño del sistema de refrigeración del bloque de parada del LIPAc. El diseño se ha realizado utilizando un modelo simplificado unidimensional. Se han obtenido los parámetros del agua (presión, caudal, pérdida de carga) y la geometría requerida en el canal de refrigeración (anchura, rugosidad) para garantizar la correcta refrigeración del bloque de parada. Se ha comprobado que el diseño permite variaciones del haz respecto a la situación nominal siendo el flujo crítico calorífico al menos 2 veces superior al nominal. Se han realizado asimismo simulaciones fluidodinámicas 3D con ANSYS-CFX en aquellas zonas del canal de refrigeración que lo requieren. El bloque de parada se activará como consecuencia de la interacción del haz de partículas lo que impide cualquier cambio o reparación una vez comenzada la operación del acelerador. Por ello el diseño ha de ser muy robusto y todas las hipótesis utilizadas en la realización de éste deben ser cuidadosamente comprobadas. Gran parte del esfuerzo de la tesis se centra en la estimación del coeficiente de transferencia de calor que es determinante en los resultados obtenidos, y que se emplea además como condición de contorno en los cálculos mecánicos. Para ello por un lado se han buscado correlaciones cuyo rango de aplicabilidad sea adecuado para las condiciones del bloque de parada (canal anular, diferencias de temperatura agua-pared de decenas de grados). En un segundo paso se han comparado los coeficientes de película obtenidos a partir de la correlación seleccionada (Petukhov-Gnielinski) con los que se deducen de simulaciones fluidodinámicas, obteniendo resultados satisfactorios. Por último se ha realizado una validación experimental utilizando un prototipo y un circuito hidráulico que proporciona un flujo de agua con los parámetros requeridos en el bloque de parada. Tras varios intentos y mejoras en el experimento se han obtenido los coeficientes de película para distintos caudales y potencias de calentamiento. Teniendo en cuenta la incertidumbre de las medidas, los valores experimentales concuerdan razonablemente bien (en el rango de 15%) con los deducidos de las correlaciones. Por motivos radiológicos es necesario controlar la calidad del agua de refrigeración y minimizar la corrosión del cobre. Tras un estudio bibliográfico se identificaron los parámetros del agua más adecuados (conductividad, pH y concentración de oxígeno disuelto). Como parte de la tesis se ha realizado asimismo un estudio de la corrosión del circuito de refrigeración del bloque de parada con el doble fin de determinar si puede poner en riesgo la integridad del componente, y de obtener una estimación de la velocidad de corrosión para dimensionar el sistema de purificación del agua. Se ha utilizado el código TRACT (TRansport and ACTivation code) adaptándalo al caso del bloque de parada, para lo cual se trabajó con el responsable (Panos Karditsas) del código en Culham (UKAEA). Los resultados confirman que la corrosión del cobre en las condiciones seleccionadas no supone un problema. La Tesis se encuentra estructurada de la siguiente manera: En el primer capítulo se realiza una introducción de los proyectos IFMIF y LIPAc dentro de los cuales se enmarca esta Tesis. Además se describe el bloque de parada, siendo el diseño del sistema de rerigeración de éste el principal objetivo de la Tesis. En el segundo y tercer capítulo se realiza un resumen de la base teórica así como de las diferentes herramientas empleadas en el diseño del sistema de refrigeración. El capítulo cuarto presenta los resultados del relativos al sistema de refrigeración. Tanto los obtenidos del estudio unidimensional, como los obtenidos de las simulaciones fluidodinámicas 3D mediante el empleo del código ANSYS-CFX. En el quinto capítulo se presentan los resultados referentes al análisis de corrosión del circuito de refrigeración del bloque de parada. El capítulo seis se centra en la descripción del montaje experimental para la obtención de los valores de pérdida de carga y coeficiente de transferencia del calor. Asimismo se presentan los resultados obtenidos en dichos experimentos. Finalmente encontramos un capítulo de apéndices en el que se describen una serie de experimentos llevados a cabo como pasos intermedios en la obtención del resultado experimental del coeficiente de película. También se presenta el código informático empleado para el análisis unidimensional del sistema de refrigeración del bloque de parada llamado CHICA (Cooling and Heating Interaction and Corrosion Analysis). ABSTRACT In the nuclear fusion field running in parallel to ITER (International Thermonuclear Experimental Reactor) as one of the complementary activities headed towards solving the technological barriers, IFMIF (International Fusion Material Irradiation Facility) project aims to provide an irradiation facility to qualify advanced materials resistant to extreme conditions like the ones expected in future fusion reactors like DEMO (DEMOnstration Power Plant). IFMIF consists of two constant wave deuteron accelerators delivering a 125 mA and 40 MeV beam each that will collide on a lithium target producing an intense neutron fluence (1017 neutrons/s) with a similar spectra to that of fusion neutrons [1], [2]. This neutron flux is employed to irradiate the different material candidates to be employed in the future fusion reactors, and the samples examined after irradiation at the so called post-irradiative facilities. As a first step in such an ambitious project, an engineering validation and engineering design activity phase called IFMIF-EVEDA (Engineering Validation and Engineering Design Activities) is presently going on. One of the activities consists on the construction and operation of an accelerator prototype named LIPAc (Linear IFMIF Prototype Accelerator). It is a high intensity deuteron accelerator identical to the low energy part of the IFMIF accelerators. The LIPAc components, which will be installed in Japan, are delivered by different european countries. The accelerator supplies a 9 MeV constant wave beam of deuterons with a power of 1.125 MW, which after being characterized by different instruments has to be stopped safely. For such task a beam dump to absorb the beam energy and take it to a heat sink is needed. Spain has the compromise of delivering such device and CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas) is responsible for such task. The central piece of the beam dump, where the ion beam is stopped, is a copper cone with an angle of 3.5o, 2.5 m long and 5 mm width. This part is cooled by water flowing on its external surface through the channel formed between the copper cone and a concentric piece with the latter. The thesis is developed in this realm, and its objective is designing the LIPAc beam dump cooling system. The design has been performed employing a simplified one dimensional model. The water parameters (pressure, flow, pressure loss) and the required annular channel geometry (width, rugoisty) have been obtained guaranteeing the correct cooling of the beam dump. It has been checked that the cooling design allows variations of the the beam with respect to the nominal position, being the CHF (Critical Heat Flux) at least twice times higher than the nominal deposited heat flux. 3D fluid dynamic simulations employing ANSYS-CFX code in the beam dump cooling channel sections which require a more thorough study have also been performed. The beam dump will activateasaconsequenceofthe deuteron beam interaction, making impossible any change or maintenance task once the accelerator operation has started. Hence the design has to be very robust and all the hypotheses employed in the design mustbecarefully checked. Most of the work in the thesis is concentrated in estimating the heat transfer coefficient which is decisive in the obtained results, and is also employed as boundary condition in the mechanical analysis. For such task, correlations which applicability range is the adequate for the beam dump conditions (annular channel, water-surface temperature differences of tens of degrees) have been compiled. In a second step the heat transfer coefficients obtained from the selected correlation (Petukhov- Gnielinski) have been compared with the ones deduced from the 3D fluid dynamic simulations, obtaining satisfactory results. Finally an experimental validation has been performed employing a prototype and a hydraulic circuit that supplies a flow with the requested parameters in the beam dump. After several tries and improvements in the experiment, the heat transfer coefficients for different flows and heating powers have been obtained. Considering the uncertainty in the measurements the experimental values agree reasonably well (in the order of 15%) with the ones obtained from the correlations. Due to radiological reasons the quality of the cooling water must be controlled, hence minimizing the copper corrosion. After performing a bibligraphic study the most adequate water parameters were identified (conductivity, pH and dissolved oxygen concentration). As part of this thesis a corrosion study of the beam dump cooling circuit has been performed with the double aim of determining if corrosion can pose a risk for the copper beam dump , and obtaining an estimation of the corrosion velocitytodimension the water purification system. TRACT code(TRansport and ACTivation) has been employed for such study adapting the code for the beam dump case. For such study a collaboration with the code responsible (Panos Karditsas) at Culham (UKAEA) was established. The work developed in this thesis has supposed the publication of three articles in JCR journals (”Journal of Nuclear Materials” y ”Fusion Engineering and Design”), as well as presentations in more than four conferences and relevant meetings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Light confinement strategies play a crucial role in the performance of thin-film (TF) silicon solar cells. One way to reduce the optical losses is the texturing of the transparent conductive oxide (TCO) that acts as the front contact. Other losses arise from the mismatch between the incident light spectrum and the spectral properties of the absorbent material that imply that low energy photons (below the bandgap value) are not absorbed, and therefore can not generate photocurrent. Up-conversion techniques, in which two sub-bandgap photons are combined to give one photon with a better matching with the bandgap, were proposed to overcome this problem. In particular, this work studies two strategies to improve light management in thin film silicon solar cells using laser technology. The first one addresses the problem of TCO surface texturing using fully commercial fast and ultrafast solid state laser sources. Aluminum doped Zinc Oxide (AZO) samples were laser processed and the results were optically evaluated by measuring the haze factor of the treated samples. As a second strategy, laser annealing experiments of TCOs doped with rare earth ions are presented as a potential process to produce layers with up-conversion properties, opening the possibility of its potential use in high efficiency solar cells.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral se centra en la investigación del proceso de producción de polisilicio para aplicaciones fotovoltaicas (FV) por la vía química; mediante procesos de depósito en fase vapor (CVD). El polisilicio para la industria FV recibe el nombre de silicio de grado solar (SoG Si). Por un lado, el proceso que domina hoy en día la producción de SoG Si está basado en la síntesis, destilación y descomposición de triclorosilano (TCS) en un reactor CVD -denominado reactor Siemens-. El material obtenido mediante este proceso es de muy alta pureza, pero a costa de un elevado consumo energético. Así, para alcanzar los dos principales objetivos de la industria FV basada en silicio, bajos costes de producción y bajo tiempo de retorno de la energía invertida en su fabricación, es esencial disminuir el consumo energético de los reactores Siemens. Por otro lado, una alternativa al proceso Siemens considera la descomposición de monosilano (MS) en un reactor de lecho fluidizado (FBR). Este proceso alternativo tiene un consumo energético mucho menor que el de un reactor Siemens, si bien la calidad del material resultante es también menor; pero ésta puede ser suficiente para la industria FV. A día de hoy los FBR deben aún abordar una serie de retos para que su menor consumo energético sea una ventaja suficiente comparada con otras desventajas de estos reactores. En resumen, la investigación desarrollada se centra en el proceso de depósito de polysilicio por CVD a partir de TCS -reactor Siemens-; pero también se investiga el proceso de producción de SoG Si en los FBR exponiendo las fortalezas y debilidades de esta alternativa. Para poder profundizar en el conocimiento del proceso CVD para la producción de polisilicio es clave el conocimiento de las reacciones químicas fundamentales y cómo éstas influencian la calidad del producto resultante, al mismo tiempo que comprender los fenómenos responsables del consumo energético. Por medio de un reactor Siemens de laboratorio en el que se llevan a cabo un elevado número de experimentos de depósito de polisilicio de forma satisfactoria se adquiere el conocimiento previamente descrito. Se pone de manifiesto la complejidad de los reactores CVD y de los problemas asociados a la pérdidas de calor de estos procesos. Se identifican las contribuciones a las pérdidas de calor de los reactores CVD, éstas pérdidas de calor son debidas principalmente a los fenómenos de radiación y, conducción y convección vía gases. En el caso de los reactores Siemens el fenómeno que contribuye en mayor medida al alto consumo energético son las pérdidas de calor por radiación, mientras que en los FBRs tanto la radiación como el calor transferido por transporte másico contribuyen de forma importante. Se desarrolla un modelo teórico integral para el cálculo de las pérdidas de calor en reactores Siemens. Este modelo está formado a su vez por un modelo para la evaluación de las pérdidas de calor por radiación y modelos para la evaluación de las pérdidas de calor por conducción y convección vía gases. Se ponen de manifiesto una serie de limitaciones del modelo de pérdidas de calor por radiación, y se desarrollan una serie de modificaciones que mejoran el modelo previo. El modelo integral se valida por medio un reactor Siemens de laboratorio, y una vez validado se presenta su extrapolación a la escala industrial. El proceso de conversión de TCS y MS a polisilicio se investiga mediante modelos de fluidodinámica computacional (CFD). Se desarrollan modelados CFD para un reactor Siemens de laboratorio y para un prototipo FBR. Los resultados obtenidos mediante simulación son comparados, en ambos casos, con resultados experimentales. Los modelos desarrollados se convierten en herramientas para la identificación de aquellos parámetros que tienen mayor influencia en los procesos CVD. En el caso del reactor Siemens, ambos modelos -el modelo integral y el modelado CFD permiten el estudio de los parámetros que afectan en mayor medida al elevado consumo energético, y mediante su análisis se sugieren modificaciones para este tipo de reactores que se traducirían en un menor número de kilovatios-hora consumidos por kilogramo de silicio producido. Para el caso del FBR, el modelado CFD permite analizar el efecto de una serie de parámetros sobre la distribución de temperaturas en el lecho fluidizado; y dicha distribución de temperaturas está directamente relacionada con los principales retos de este tipo de reactores. Por último, existen nuevos conceptos de depósito de polisilicio; éstos se aprovechan de la ventaja teórica de un mayor volumen depositado por unidad de tiempo -cuando una mayor superficie de depósito está disponible- con el objetivo de reducir la energía consumida por los reactores Siemens. Estos conceptos se exploran mediante cálculos teóricos y pruebas en el reactor Siemens de laboratorio. ABSTRACT This Doctoral Thesis comprises research on polysilicon production for photovoltaic (PV) applications through the chemical route: chemical vapor deposition (CVD) process. PV polysilicon is named solar grade silicon (SoG Si). On the one hand, the besetting CVD process for SoG Si production is based on the synthesis, distillation, and decomposition of thriclorosilane (TCS) in the so called Siemens reactor; high purity silicon is obtained at the expense of high energy consumption. Thus, lowering the energy consumption of the Siemens process is essential to achieve the two wider objectives for silicon-based PV technology: low production cost and low energy payback time. On the other hand, a valuable variation of this process considers the use of monosilane (MS) in a fluidized bed reactor (FBR); lower output material quality is obtained but it may fulfil the requirements for the PV industry. FBRs demand lower energy consumption than Siemens reactors but further research is necessary to address the actual challenges of these reactors. In short, this work is centered in polysilicon CVD process from TCS -Siemens reactor-; but it also offers insights on the strengths and weaknesses of the FBR for SoG Si production. In order to aid further development in polysilicon CVD is key the understanding of the fundamental reactions and how they influence the product quality, at the same time as to comprehend the phenomena responsible for the energy consumption. Experiments conducted in a laboratory Siemens reactor prove the satisfactory operation of the prototype reactor, and allow to acquire the knowledge that has been described. Complexity of the CVD reactors is stated and the heat loss problem associated with polysilicon CVD is addressed. All contributions to the energy consumption of Siemens reactors and FBRs are put forward; these phenomena are radiation and, conduction and convection via gases heat loss. In a Siemens reactor the major contributor to the energy consumption is radiation heat loss; in case of FBRs radiation and heat transfer due to mass transport are both important contributors. Theoretical models for radiation, conduction and convection heat loss in a Siemens reactor are developed; shaping a comprehensive theoretical model for heat loss in Siemens reactors. Limitations of the radiation heat loss model are put forward, and a novel contribution to the existing model is developed. The comprehensive model for heat loss is validated through a laboratory Siemens reactor, and results are scaled to industrial reactors. The process of conversion of TCS and MS gases to solid polysilicon is investigated by means of computational fluid-dynamics models. CFD models for a laboratory Siemens reactor and a FBR prototype are developed. Simulated results for both CVD prototypes are compared with experimental data. The developed models are used as a tool to investigate the parameters that more strongly influence both processes. For the Siemens reactors, both, the comprehensive theoretical model and the CFD model allow to identify the parameters responsible for the great power consumption, and thus, suggest some modifications that could decrease the ratio kilowatts-hour per kilogram of silicon produced. For the FBR, the CFD model allows to explore the effect of a number of parameters on the thermal distribution of the fluidized bed; that is the main actual challenge of these type of reactors. Finally, there exist new deposition surface concepts that take advantage of higher volume deposited per time unit -when higher deposition area is available- trying to reduce the high energy consumption of the Siemens reactors. These novel concepts are explored by means of theoretical calculations and tests in the laboratory Siemens prototype.