25 resultados para Reduced-basis method
Resumo:
At present, photovoltaic energy is one of the most important renewable energy sources. The demand for solar panels has been continuously growing, both in the industrial electric sector and in the private sector. In both cases the analysis of the solar panel efficiency is extremely important in order to maximize the energy production. In order to have a more efficient photovoltaic system, the most accurate understanding of this system is required. However, in most of the cases the only information available in this matter is reduced, the experimental testing of the photovoltaic device being out of consideration, normally for budget reasons. Several methods, normally based on an equivalent circuit model, have been developed to extract the I-V curve of a photovoltaic device from the small amount of data provided by the manufacturer. The aim of this paper is to present a fast, easy, and accurate analytical method, developed to calculate the equivalent circuit parameters of a solar panel from the only data that manufacturers usually provide. The calculated circuit accurately reproduces the solar panel behavior, that is, the I-V curve. This fact being extremely important for practical reasons such as selecting the best solar panel in the market for a particular purpose, or maximize the energy extraction with MPPT (Maximum Peak Power Tracking) methods.
Resumo:
El requerimiento de proveer alta frecuencia de datos en los modernos sistema de comunicación inalámbricos resulta en complejas señales moduladas de radio-frequencia (RF) con un gran ancho de banda y alto ratio pico-promedio (PAPR). Para garantizar la linealidad del comportamiento, los amplificadores lineales de potencia comunes funcionan típicamente entre 4 y 10 dB de back-o_ desde la máxima potencia de salida, ocasionando una baja eficiencia del sistema. La eliminación y restauración de la evolvente (EER) y el seguimiento de la evolvente (ET) son dos prometedoras técnicas para resolver el problema de la eficiencia. Tanto en EER como en ET, es complicado diseñar un amplificador de potencia que sea eficiente para señales de RF de alto ancho de banda y alto PAPR. Una propuesta común para los amplificadores de potencia es incluir un convertidor de potencia de muy alta eficiencia operando a frecuencias más altas que el ancho de banda de la señal RF. En este caso, la potencia perdida del convertidor ocasionado por la alta frecuencia desaconseja su práctica cuando el ancho de banda es muy alto. La solución a este problema es el enfoque de esta disertación que presenta dos arquitecturas de amplificador evolvente: convertidor híbrido-serie con una técnica de evolvente lenta y un convertidor multinivel basado en un convertidor reductor multifase con control de tiempo mínimo. En la primera arquitectura, una topología híbrida está compuesta de una convertidor reductor conmutado y un regulador lineal en serie que trabajan juntos para ajustar la tensión de salida para seguir a la evolvente con precisión. Un algoritmo de generación de una evolvente lenta crea una forma de onda con una pendiente limitada que es menor que la pendiente máxima de la evolvente original. La salida del convertidor reductor sigue esa forma de onda en vez de la evolvente original usando una menor frecuencia de conmutación, porque la forma de onda no sólo tiene una pendiente reducida sino también un menor ancho de banda. De esta forma, el regulador lineal se usa para filtrar la forma de onda tiene una pérdida de potencia adicional. Dependiendo de cuánto se puede reducir la pendiente de la evolvente para producir la forma de onda, existe un trade-off entre la pérdida de potencia del convertidor reductor relacionada con la frecuencia de conmutación y el regulador lineal. El punto óptimo referido a la menor pérdida de potencia total del amplificador de evolvente es capaz de identificarse con la ayuda de modelo preciso de pérdidas que es una combinación de modelos comportamentales y analíticos de pérdidas. Además, se analiza el efecto en la respuesta del filtro de salida del convertidor reductor. Un filtro de dampeo paralelo extra es necesario para eliminar la oscilación resonante del filtro de salida porque el convertidor reductor opera en lazo abierto. La segunda arquitectura es un amplificador de evolvente de seguimiento de tensión multinivel. Al contrario que los convertidores que usan multi-fuentes, un convertidor reductor multifase se emplea para generar la tensión multinivel. En régimen permanente, el convertidor reductor opera en puntos del ciclo de trabajo con cancelación completa del rizado. El número de niveles de tensión es igual al número de fases de acuerdo a las características del entrelazamiento del convertidor reductor. En la transición, un control de tiempo mínimo (MTC) para convertidores multifase es novedosamente propuesto y desarrollado para cambiar la tensión de salida del convertidor reductor entre diferentes niveles. A diferencia de controles convencionales de tiempo mínimo para convertidores multifase con inductancia equivalente, el propuesto MTC considera el rizado de corriente por cada fase basado en un desfase fijo que resulta en diferentes esquemas de control entre las fases. La ventaja de este control es que todas las corrientes vuelven a su fase en régimen permanente después de la transición para que la siguiente transición pueda empezar muy pronto, lo que es muy favorable para la aplicación de seguimiento de tensión multinivel. Además, el control es independiente de la carga y no es afectado por corrientes de fase desbalanceadas. Al igual que en la primera arquitectura, hay una etapa lineal con la misma función, conectada en serie con el convertidor reductor multifase. Dado que tanto el régimen permanente como el estado de transición del convertidor no están fuertemente relacionados con la frecuencia de conmutación, la frecuencia de conmutación puede ser reducida para el alto ancho de banda de la evolvente, la cual es la principal consideración de esta arquitectura. La optimización de la segunda arquitectura para más alto anchos de banda de la evolvente es presentada incluyendo el diseño del filtro de salida, la frecuencia de conmutación y el número de fases. El área de diseño del filtro está restringido por la transición rápida y el mínimo pulso del hardware. La rápida transición necesita un filtro pequeño pero la limitación del pulso mínimo del hardware lleva el diseño en el sentido contrario. La frecuencia de conmutación del convertidor afecta principalmente a la limitación del mínimo pulso y a las pérdidas de potencia. Con una menor frecuencia de conmutación, el ancho de pulso en la transición es más pequeño. El número de fases relativo a la aplicación específica puede ser optimizado en términos de la eficiencia global. Otro aspecto de la optimización es mejorar la estrategia de control. La transición permite seguir algunas partes de la evolvente que son más rápidas de lo que el hardware puede soportar al precio de complejidad. El nuevo método de sincronización de la transición incrementa la frecuencia de la transición, permitiendo que la tensión multinivel esté más cerca de la evolvente. Ambas estrategias permiten que el convertidor pueda seguir una evolvente con un ancho de banda más alto que la limitación de la etapa de potencia. El modelo de pérdidas del amplificador de evolvente se ha detallado y validado mediante medidas. El mecanismo de pérdidas de potencia del convertidor reductor tiene que incluir las transiciones en tiempo real, lo cual es diferente del clásico modelos de pérdidas de un convertidor reductor síncrono. Este modelo estima la eficiencia del sistema y juega un papel muy importante en el proceso de optimización. Finalmente, la segunda arquitectura del amplificador de evolvente se integra con el amplificador de clase F. La medida del sistema EER prueba el ahorro de energía con el amplificador de evolvente propuesto sin perjudicar la linealidad del sistema. ABSTRACT The requirement of delivering high data rates in modern wireless communication systems results in complex modulated RF signals with wide bandwidth and high peak-to-average ratio (PAPR). In order to guarantee the linearity performance, the conventional linear power amplifiers typically work at 4 to 10 dB back-off from the maximum output power, leading to low system efficiency. The envelope elimination and restoration (EER) and envelope tracking (ET) are two promising techniques to overcome the efficiency problem. In both EER and ET, it is challenging to design efficient envelope amplifier for wide bandwidth and high PAPR RF signals. An usual approach for envelope amplifier includes a high-efficiency switching power converter operating at a frequency higher than the RF signal's bandwidth. In this case, the power loss of converter caused by high switching operation becomes unbearable for system efficiency when signal bandwidth is very wide. The solution of this problem is the focus of this dissertation that presents two architectures of envelope amplifier: a hybrid series converter with slow-envelope technique and a multilevel converter based on a multiphase buck converter with the minimum time control. In the first architecture, a hybrid topology is composed of a switched buck converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. A slow envelope generation algorithm yields a waveform with limited slew rate that is lower than the maximum slew rate of the original envelope. The buck converter's output follows this waveform instead of the original envelope using lower switching frequency, because the waveform has not only reduced slew rate but also reduced bandwidth. In this way, the linear regulator used to filter the waveform has additional power loss. Depending on how much reduction of the slew rate of envelope in order to obtain that waveform, there is a trade-off between the power loss of buck converter related to the switching frequency and the power loss of linear regulator. The optimal point referring to the lowest total power loss of this envelope amplifier is identified with the help of a precise power loss model that is a combination of behavioral and analytic loss model. In addition, the output filter's effect on the response is analyzed. An extra parallel damping filter is needed to eliminate the resonant oscillation of output filter L and C, because the buck converter operates in open loop. The second architecture is a multilevel voltage tracking envelope amplifier. Unlike the converters using multi-sources, a multiphase buck converter is employed to generate the multilevel voltage. In the steady state, the buck converter operates at complete ripple cancellation points of duty cycle. The number of the voltage levels is equal to the number of phases according the characteristics of interleaved buck converter. In the transition, a minimum time control (MTC) for multiphase converter is originally proposed and developed for changing the output voltage of buck converter between different levels. As opposed to conventional minimum time control for multiphase converter with equivalent inductance, the proposed MTC considers the current ripple of each phase based on the fixed phase shift resulting in different control schemes among the phases. The advantage of this control is that all the phase current return to the steady state after the transition so that the next transition can be triggered very soon, which is very favorable for the application of multilevel voltage tracking. Besides, the control is independent on the load condition and not affected by the unbalance of phase current. Like the first architecture, there is also a linear stage with the same function, connected in series with the multiphase buck converter. Since both steady state and transition state of the converter are not strongly related to the switching frequency, it can be reduced for wide bandwidth envelope which is the main consideration of this architecture. The optimization of the second architecture for wider bandwidth envelope is presented including the output filter design, switching frequency and the number of phases. The filter design area is restrained by fast transition and the minimum pulse of hardware. The fast transition needs small filter but the minimum pulse of hardware limitation pushes the filter in opposite way. The converter switching frequency mainly affects the minimum pulse limitation and the power loss. With lower switching frequency, the pulse width in the transition is smaller. The number of phases related to specific application can be optimized in terms of overall efficiency. Another aspect of optimization is improving control strategy. Transition shift allows tracking some parts of envelope that are faster than the hardware can support at the price of complexity. The new transition synchronization method increases the frequency of transition, allowing the multilevel voltage to be closer to the envelope. Both control strategies push the converter to track wider bandwidth envelope than the limitation of power stage. The power loss model of envelope amplifier is detailed and validated by measurements. The power loss mechanism of buck converter has to include the transitions in real time operation, which is different from classical power loss model of synchronous buck converter. This model estimates the system efficiency and play a very important role in optimization process. Finally, the second envelope amplifier architecture is integrated with a Class F amplifier. EER system measurement proves the power saving with the proposed envelope amplifier without disrupting the linearity performance.
Resumo:
Global demand for mobility is increasing and the environmental impact of transport has become an important issue in transportation network planning and decision-making, as well as in the operational management phase. Suitable methods are required to assess emissions and fuel consumption reduction strategies that seek to improve energy efficiency and furthering decarbonization. This study describes the development and application of an improved modeling framework – the HERA (Highway EneRgy Assessment) methodology – that enables to assess the energy and carbon footprint of different highways and traffic flow scenarios and their comparison. HERA incorporates an average speed consumption model adjusted with a correction factor which takes into account the road gradient. It provides a more comprehensive method for estimating the footprint of particular highway segments under specific traffic conditions. It includes the application of the methodology to the Spanish highway network to validate it. Finally, a case study shows the benefits from using this methodology and how to integrate the objective of carbon footprint reductions into highway design, operation and scenario comparison.
Resumo:
The city of Lorca (Spain) was hit on May 11th, 2011, by two consecutive earth-quakes of magnitudes 4.6 and 5.2 Mw, causing casualties and important damage in buildings. Many of the damaged structures were reinforced concrete frames with wide beams. This study quantifies the expected level of damage on this structural type in the case of the Lorca earth-quake by means of a seismic index Iv that compares the energy input by the earthquake with the energy absorption/dissipation capacity of the structure. The prototype frames investigated represent structures designed in two time periods (1994–2002 and 2003–2008), in which the applicable codes were different. The influence of the masonry infill walls and the proneness of the frames to concentrate damage in a given story were further investigated through nonlinear dynamic response analyses. It is found that (1) the seismic index method predicts levels of damage that range from moderate/severe to complete collapse; this prediction is consistent with the observed damage; (2) the presence of masonry infill walls makes the structure very prone to damage concentration and reduces the overall seismic capacity of the building; and (3) a proper hierarchy of strength between beams and columns that guarantees the formation of a strong column-weak beam mechanism (as prescribed by seismic codes), as well as the adoption of counter-measures to avoid the negative interaction between non-structural infill walls and the main frame, would have reduced the level of damage from Iv=1 (collapse) to about Iv=0.5 (moderate/severe damage)
Resumo:
Durante la última década, se han llevado acabo numeroso estudios sobre la síntesis de materiales fotoluminiscentes sub-micrónicos, en gran medida, al amplio número de aplicaciones que demandan este tipo de materiales. En concreto dentro de los materiales fosforescentes o también denominados materiales con una prolongada persistencia de la luminiscencia, los estudios se han enfocado en la matriz de SrAl2O4 dopada con Europio (Eu2+) y Disprosio (Dy3+) dado que tiene mayor estabilidad y persistencia de la fosforescencia con respecto a otras matrices. Estos materiales se emplean mayoritariamente en pinturas luminiscentes, tintas, señalización de seguridad pública, cerámicas, relojes, textiles y juguetes fosforescentes. Dado al amplio campo de aplicación de los SrAl2O4:Eu, Dy, se han investigado múltiples rutas de síntesis como la ruta sol-gel, la síntesis hidrotermal, la síntesis por combustión, la síntesis láser y la síntesis en estado sólido con el fin de desarrollar un método eficiente y que sea fácilmente escalable. Sin embargo, en la actualidad el método que se emplea para el procesamiento a nivel industrial de los materiales basados en aluminato de estroncio es la síntesis por estado sólido, que requiere de temperaturas de entre 1300 a 1900oC y largos tiempos de procesamiento. Además el material obtenido tiene un tamaño de partícula de 20 a 100 μm; siendo este tamaño restrictivo para el empleo de este tipo de material en determinadas aplicaciones. Por tanto, el objetivo de este trabajo es el desarrollo de nuevas estrategias que solventen las actuales limitaciones. Dentro de este marco se plantean una serie de objetivos específicos: Estudio de los parámetros que gobiernan los procesos de reducción del tamaño de partícula mediante molienda y su relación en la respuesta fotoluminiscente. Estudio de la síntesis por combustión de SrAl2O4:Eu, Dy, evaluando el efecto de la temperatura y la cantidad de combustible (urea) en el proceso para la obtención de partículas cristalinas minimizando la presencia de fases secundarias. Desarrollo de nuevas rutas de síntesis de SrAl2O4:Eu, Dy empleando el método de sales fundidas. Determinación de los mecanismos de reacción en presencia de la sal fundida en función de los parámetros de proceso que comprende la relación de sales y reactivos, la naturaleza de la alúmina y su tamaño, la temperatura y atmósfera de tratamiento. Mejora de la eficiencia de los procesos de síntesis para obtener productos con propiedades finales óptimas en procesos factibles industrialmente para su transferencia tecnológica. Es este trabajo han sido evaluados los efectos de diferentes procesos de molienda para la reducción del tamaño de partícula del material de SrAl2O4:Eu, Dy comercial. En el proceso de molienda en medio húmedo por atrición se observa la alteración de la estructura cristalina del material debido a la reacción de hidrólisis generada incluso empleando como medio líquido etanol absoluto. Con el fin de solventar las desventajas de la molienda en medio húmedo se llevo a cabo un estudio de la molturación en seco del material. La molturación en seco de alta energía reduce significativamente el tamaño medio de partícula. Sin embargo, procesos de molienda superiores a una duración de 10 minutos ocasionan un aumento del estado de aglomeración de las partículas y disminuyen drásticamente la respuesta fotoluminiscente del material. Por tanto, se lleva a cabo un proceso de molienda en seco de baja energía. Mediante este método se consigue reducir el tamaño medio de partícula, d50=2.8 μm, y se mejora la homogeneidad de la distribución del tamaño de partícula evitando la amorfización del material. A partir de los resultados obtenidos mediante difracción de rayos X y microscopia electrónica de barrido se infiere que la disminución de la intensidad de la fotoluminiscencia después de la molienda en seco de alta energía con respecto al material inicial se debe principalmente a la reducción del tamaño de cristalito. Se observan menores variaciones en la intensidad de la fotoluminiscencia cuando se emplea un método de molienda de baja de energía ya que en estos procesos se preserva el dominio cristalino y se reduce la amorfización significativamente. Estos resultados corroboran que la intensidad de la fotoluminiscencia y la persistencia de la luminiscencia de los materiales de SrAl2O4:Eu2+, Dy3+ dependen extrínsecamente de la morfología de las partículas, del tamaño de partícula, el tamaño de grano, los defectos superficiales e intrínsecamente del tamaño de cristalito. Siendo las características intrínsecas las que dominan con respecto a las extrínsecas y por tanto tienen mayor relevancia en la respuesta fotoluminiscente. Mediante síntesis por combustión se obtuvieron láminas nanoestructuradas de SrAl2O4:Eu, Dy de ≤1 μm de espesor. La cantidad de combustible, urea, en la reacción influye significativamente en la formación de determinadas fases cristalinas. Para la síntesis del material de SrAl2O4:Eu, Dy es necesario incluir un contenido de urea mayor que el estequiométrico (siendo m=1 la relación estequiométrica). La incorporación de un exceso de urea (m>1) requiere de la presencia de un agente oxidante interno, HNO3, para que la reacción tenga lugar. El empleo de un mayor contenido de urea como combustible permite una quelación efectiva de los cationes en el sistema y la creación de las condiciones reductoras para obtener un material de mayor cristalinidad y con mejores propiedades fotoluminiscentes. El material de SrAl2O4:Eu, Dy sintetizado a una temperatura de ignición de 600oC tiene un tamaño medio 5-25 μm con un espesor de ≤1 μm. Mediante procesos de molturación en seco de baja energía es posible disminuir el tamaño medio de partícula ≈2 μm y homogenizar la distribución del tamaño de partícula pero hay un deterioro asociado de la respuesta luminiscente. Sin embargo, se puede mejorar la respuesta fotoluminiscente empleando un tratamiento térmico posterior a 900oC N2-H2 durante 1 hora que no supone un aumento del tamaño de partícula pero si permite aumentar el tamaño de cristalito y la reducción del Eu3+ a Eu2+. Con respecto a la respuesta fotoluminiscente, se obtiene valores de la intensidad de la fotoluminiscencia entre un 35%-21% con respecto a la intensidad de un material comercial de referencia. Además la intensidad inicial del decaimiento de la fosforescencia es un 20% de la intensidad del material de referencia. Por tanto, teniendo en cuenta estos resultados, es necesario explorar otros métodos de síntesis para la obtención de los materiales bajo estudio. Por esta razón, en este trabajo se desarrollo una ruta de síntesis novedosa para sintetizar SrAl2O4:Eu, Dy mediante el método de sales fundidas para la obtención de materiales de gran cristalinidad con tamaños de cristalito del orden nanométrico. Se empleo como sal fundente la mezcla eutéctica de NaCl y KCl, denominada (NaCl-KCl)e. La principal ventaja de la incorporación de la mezcla es el incremento la reactividad del sistema, reduciendo la temperatura de formación del SrAl2O4 y la duración del tratamiento térmico en comparación con la síntesis en estado sólido. La formación del SrAl2O4 es favorecida ya que se aumenta la difusión de los cationes de Sr2+ en el medio líquido. Se emplearon diferentes tipos de Al2O3 para evaluar el papel del tamaño de partícula y su naturaleza en la reacción asistida por sales fundidas y por tanto en la morfología y propiedades del producto final. Se obtuvieron partículas de morfología pseudo-esférica de tamaño ≤0.5 μm al emplear como alúmina precursora partículas sub-micrónicas ( 0.5 μm Al2O3, 0.1 μm Al2 O3 y γ-Al2O3). El mecanismo de reacción que tiene lugar se asocia a procesos de disolución-precipitación que dominan al emplear partículas de alúmina pequeñas y reactivas. Mientras al emplear una alúmina de 6 μm Al2O3 prevalecen los procesos de crecimiento cristalino siguiendo un patrón o plantilla debido a la menor reactividad del sistema. La nucleación y crecimiento de nanocristales de SrAl2O4:Eu, Dy se genera sobre la superficie de la alúmina que actúa como soporte. De esta forma se desarrolla una estructura del tipo coraza-núcleo («core-shell» en inglés) donde la superficie externa está formada por los cristales fosforescentes de SrAl2O4 y el núcleo está formado por alúmina. Las partículas obtenidas tienen una respuesta fotoluminiscente diferente en función de la morfología final obtenida. La optimización de la relación Al2O3/SrO del material de SrAl2O4:Eu, Dy sintetizado a partir de la alúmina de 6 μm permite reducir las fases secundarias y la concentración de dopantes manteniendo la respuesta fotoluminiscente. Comparativamente con un material comercial de SrAl2O4:Eu, Dy de referencia, se han alcanzado valores de la intensidad de la emisión de hasta el 90% y de la intensidad inicial de las curvas de decaimiento de la luminiscencia de un 60% para el material sintetizado por sales fundidas que tiene un tamaño medio ≤ 10μm. Por otra parte, es necesario tener en cuenta que el SrAl2O4 tiene dos polimorfos, la fase monoclínica que es estable a temperaturas inferiores a 650oC y la fase hexagonal, fase de alta temperatura, estable a temperaturas superiores de 650oC. Se ha determinado que fase monoclínica presenta propiedades luminiscentes, sin embargo existen discordancias a cerca de las propiedades luminiscentes de la fase hexagonal. Mediante la síntesis por sales fundidas es posible estabilizar la fase hexagonal empleando como alúmina precursora γ-Al2O3 y un exceso de Al2O3 (Al2O3/SrO:2). La estabilización de la fase hexagonal a temperatura ambiente se produce cuando el tamaño de los cristales de SrAl2O4 es ≤20 nm. Además se observó que la fase hexagonal presenta respuesta fotoluminiscente. El diseño de materiales de SrAl2O4:Eu,Dy nanoestructurados permite modular la morfología del material y por tanto la intensidad de la de la fotoluminiscencia y la persistencia de la luminiscencia. La disminución de los materiales precursores, la temperatura y el tiempo de tratamiento significa la reducción de los costes económicos del material. De ahí la viabilidad de los materiales de SrAl2O4:Eu,Dy obtenidos mediante los procesos de síntesis propuestos en esta memoria de tesis para su posterior escalado industrial. ABSTRACT The synthesis of sub-micron photoluminescent particles has been widely studied during the past decade because of the promising industrial applications of these materials. A large number of matrices has been developed, being SrAl2O4 host doped with europium (Eu2+) and dysprosium (Dy3+) the most extensively studied, because of its better stability and long-lasting luminescence. These functional inorganic materials have a wide field of application in persistent luminous paints, inks and ceramics. Large attention has been paid to the development of an efficient method of preparation of SrAl2O4 powders, including solgel method, hydrothermal synthesis, laser synthesis, combustion synthesis and solid state reaction. Many of these techniques are not compatible with large-scale production and with the principles of sustainability. Moreover, industrial processing of highly crystalline powders usually requires high synthesis temperatures, typically between 1300 a 1900oC, with long processing times, especially for solid state reaction. As a result, the average particle size is typically within the 20-100 μm range. This large particle size is limiting for current applications that demand sub-micron particles. Therefore, the objective of this work is to develop new approaches to overcome these limitations. Within this frame, it is necessary to undertake the following purposes: To study the parameters that govern the particle size reduction by milling and their relation with the photoluminescence properties. To obtain SrAl2O4:Eu, Dy by combustion synthesis, assessing the effect of the temperature and the amount of fuel (urea) to synthesize highly crystalline particles minimizing the presence of secondary phases. To develop new synthesis methods to obtain SrAl2O4:Eu, Dy powders. The molten salt synthesis has been proposed. As the method is a novel route, the reaction mechanism should be determine as a function of the salt mixture, the ratio of the salt, the kind of Al2O3 and their particle size and the temperature and the atmosphere of the thermal treatment. To improve the efficiency of the synthesis process to obtain SrAl2O4:Eu, Dy powders with optimal final properties and easily scalable. On the basis of decreasing the particle size by using commercial product SrAl2O4:Eu2+, Dy3+ as raw material, the effects of different milling methods have been evaluated. Wet milling can significantly alter the structure of the material through hydrolysis reaction even in ethanol media. For overcoming the drawbacks of wet milling, a dry milling-based processes are studied. High energy dry milling process allows a great reduction of the particle size, however milling times above 10 min produce agglomeration and accelerates the decrease of the photoluminescence feature. To solve these issues the low energy dry milling process proposed effectively reduces the particle size to d50=2.8 μm, and improves the homogeneity avoiding the amorphization in comparison with previous methods. The X-ray diffraction and scanning electron microscope characterization allow to infer that the large variations in PL (Photoluminescence) values by high energy milling process are a consequence mainly of the crystallite size reduction. The lesser variation in PL values by low energy milling proces is related to the coherent crystalline domain preservation and the unnoticeable amorphization. These results corroborate that the photoluminescence intensity and the persistent luminescence of the SrAl2O4:Eu2+, Dy3+ powders depend extrinsically on the morphology of the particles such as particle size, grain size, surface damage and intrinsically on the crystallinity (crystallite size); being the intrinsically effects the ones that have a significant influence on the photoluminescent response. By combustion method, nanostructured SrAl2O4:Eu2+, Dy3+ sheets with a thickness ≤1 μm have been obtained. The amount of fuel (urea) in the reaction has an important influence on the phase composition; urea contents larger than the stoichiometric one require the presence of an oxidant agent such as HNO3 to complete the reaction. A higher amount of urea (excess of urea: denoted m>1, being m=1 the stoichiometric composition) including an oxidizing agent produces SrAl2O4:Eu2+,Dy3+ particles with persistent luminescence due to the effective chelation of the cations and the creation of suitable atmospheric conditions to reduce the Eu3+ to Eu2+. Therefore, optimizing the synthesis parameters in combustion synthesis by using a higher amount of urea and an internal oxidizing agent allows to complete the reaction. The amount of secondary phases can be significantly reduced and the photoluminescence response can be enhanced. This situation is attributed to a higher energy that improves the crystallinity of the powders. The powders obtained have a particle size c.a. 5-25 μm with a thickness ≤1 μm and require relatively low ignition temperatures (600oC). It is possible to reduce the particle size by a low energy dry milling but this process implies the decrease of the photoluminescent response. However, a post-thermal treatment in a reducing atmosphere allows the improvement of the properties due to the increment of crystallinity and the reduction of Eu3+ to Eu2+. Compared with the powder resulted from solid state method (commercial reference: average particle size, 20 μm and heterogeneous particle size distribution) the emission intensity of the powder prepared by combustion method achieve the values between 35% to 21% of the reference powder intensity. Moreover, the initial intensity of the decay curve is 20% of the intensity of the reference powder. Taking in account these results, it is necessary to explore other methods to synthesize the powders For that reason, an original synthetic route has been developed in this study: the molten salt assisted process to obtain highly crystalline SrAl2O4 powders with nanometric sized crystallites. The molten salt was composed of a mixture of NaCl and KCl using a 0.5:0.5 molar ratio (eutectic mixture hereafter abbreviated as (NaCl-KCl)e). The main advantages of salt addition is the increase of the reaction rate, the significant reduction of the synthesis temperature and the duration of the thermal treatment in comparison with classic solid state method. The SrAl2O4 formation is promoted due to the high mobility of the Sr2+ cations in the liquid medium. Different kinds of Al2O3 have been employed to evaluate the role of the size and the nature of this precursor on the kinetics of reaction, on the morphology and the final properties of the product. The SrAl2O4:Eu2+, Dy3+ powders have pseudo-spherical morphology and particle size ≤0.5 μm when a sub-micron Al2O3 ( 0.5 μm Al2O3, 0.1 μm Al2O3 and γ-Al2O3) has been used. This can be attributed to a higher reactivity in the system and the dominance of dissolution-precipitation mechanism. However, the use of larger alumina (6 μm Al2O3) modifies the reaction pathway leading to a different reaction evolution. More specifically, the growth of SrAl2O4 sub-micron particles on the surface of hexagonal platelets of 6μm Al2O3 is promoted. The particles retain the shape of the original Al2O3 and this formation process can be attributed to a «core-shell» mechanism. The particles obtained exhibit different photoluminescent response as a function of the final morphology of the powder. Therefore, through this study, it has been elucidated the reaction mechanisms of SrAl2O4 formation assisted by (NaCl-KCl)e that are governed by the diffusion of SrCO3 and the reactivity of the alumina particles. Optimizing the Al2O3/SrO ratio of the SrAl2O4:Eu, Dy powders synthesized with 6 μm Al2O3 as a precursor, the secondary phases and the concentration of dopant needed can be reduced keeping the photoluminescent response of the synthesized powder. Compared with the commercial reference powder, up to 90% of the emission intensity of the reference powder has been achieved for the powder prepared by molten salt method using 6μm Al2O3 as alumina precursor. Concerning the initial intensity of the decay curve, 60% of the initial intensity of the reference powder has been obtained. Additionally, it is necessary to take into account that SrAl2O4 has two polymorphs: monoclinic symmetry that is stable at temperatures below 650oC and hexagonal symmetry that is stable above this temperature. Monoclinic phase shows luminescent properties. However, there is no clear agreement on the emission of the hexagonal structure. By molten salt, it is possible to stabilize the hexagonal phase of SrAl2O4 employing an excess of Al2O3 (Al2O3/SrO: 2) and γ-Al2O3 as a precursor. The existence of nanometric crystalline domains with lower size (≤20 nm) allows the stabilization of the hexagonal phase. Moreover, it has been evidenced that the hexagonal polymorph exhibits photoluminescent response. To sum up, the design of nanostructured SrAl2O4:Eu2+, Dy3+ materials allows to obtain different morphologies and as consequence different photoluminescent responses. The reduction of temperature, duration of the thermal treatment and the precursors materials needed imply the decrease of the economic cost of the material. Therefore, the viability, suitability and scalability of the synthesis strategy developed in this work to process SrAl2O4:Eu2+, Dy3+ are demonstrated.
Resumo:
La investigación, plantea como podemos evaluar la competividad en 135 países a partir únicamente de variables tecnológicas. En la metodología se plantea el Protocolo de Cálculo para el total de las economías seleccionadas dentro de los periodos 2005-2006 y 2007-2008, realizando una evaluación estadística. Y estableciendo una discusión, donde analizamos la explicación de las relaciones así como la interpretación de los resultados. Finalmente, evaluamos las conclusiones para las economías mundiales. Dentro de estas economías, localizamos las variables que tienen que priorizarse para mejorar la competividad de las mismas. Estas variables par ten inicialmente de un grupo de 68, y al final de la implementación del método se reducen notablemente. Estas variables finales, llamadas Indicadores Claves de Actuación, se agrupan en factores (Factores Clave de Actuación) que nos simplifican notablemente lo planteado. Para cada grupo de economías se realizan los conglomerados de acuerdo a sus valores dentro de las variables seleccionadas. Se evalúa país a país un análisis detallado de su posicionamiento para cada uno de los Indicadores Claves de Actuación seleccionados matemáticamente. La principal voluntad de la presente información, es simplificar notablemente la comparación entre la competividad de las naciones y su nivel tecnológico. Palabras clave: indicadores, índices, economías, mundiales, análisis multivariante, regresión, factorización, clusterización, análisis de conglomerados, competividad, tecnología, políticas públicas, aspectos regulatorios, operaciones, estrategias comerciales, internet, comparativa cros nacionales, análisis multinivel. Analysis of the relationship between competitiveness and technological development for 135 worldwide countries. Factors and Key Performance Indicators. Clusters of economies Abstract:The research evaluates the competitiveness of 135 countries, based solely on technological variables. The methodology raises calculation protocol for the total of selected economies in the periods 2005-2006 and 2007- 2008. This protocol makes a statistical evaluation. And setting up a discussion, where we analyzed the explanation of the relationship and the interpretation of results. Finally, we evaluate the conclusions for the world economies. Within each group of economies, we know which variables need originally to be prioritized to improve the competitiveness. These variables are from a group of 68, and after the implementation of the method are reduced dramatically in number. These variables will be called Key Performance Indicators and will be grouped into Factors (Key Performance Factors) this will significantly simplify matters. Within this group of countries have been reduced three factors that collect their Key Performance Indicators . A country to country detailed analysis of their positions according to each of the Key Performance Indicators on a mathematical basis.The main desire of this research is to significantly simplify the comparison between the competitiveness of nations and their technological level. Key words: economies, innovation, competitiveness, public policy, business strategies.
Resumo:
Electric probes are objects immersed in the plasma with sharp boundaries which collect of emit charged particles. Consequently, the nearby plasma evolves under abrupt imposed and/or naturally emerging conditions. There could be localized currents, different time scales for plasma species evolution, charge separation and absorbing-emitting walls. The traditional numerical schemes based on differences often transform these disparate boundary conditions into computational singularities. This is the case of models using advection-diffusion differential equations with source-sink terms (also called Fokker-Planck equations). These equations are used in both, fluid and kinetic descriptions, to obtain the distribution functions or the density for each plasma species close to the boundaries. We present a resolution method grounded on an integral advancing scheme by using approximate Green's functions, also called short-time propagators. All the integrals, as a path integration process, are numerically calculated, what states a robust grid-free computational integral method, which is unconditionally stable for any time step. Hence, the sharp boundary conditions, as the current emission from a wall, can be treated during the short-time regime providing solutions that works as if they were known for each time step analytically. The form of the propagator (typically a multivariate Gaussian) is not unique and it can be adjusted during the advancing scheme to preserve the conserved quantities of the problem. The effects of the electric or magnetic fields can be incorporated into the iterative algorithm. The method allows smooth transitions of the evolving solutions even when abrupt discontinuities are present. In this work it is proposed a procedure to incorporate, for the very first time, the boundary conditions in the numerical integral scheme. This numerical scheme is applied to model the plasma bulk interaction with a charge-emitting electrode, dealing with fluid diffusion equations combined with Poisson equation self-consistently. It has been checked the stability of this computational method under any number of iterations, even for advancing in time electrons and ions having different time scales. This work establishes the basis to deal in future work with problems related to plasma thrusters or emissive probes in electromagnetic fields.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
The effect of type of fiber, site of fermetation, method for quantifying insoluble and soluble dietary fiber, and their correction for intestinal mucin on fiber digestibility were examined in rabbits. Three diets differing in soluble fiber were formulated (8.5% soluble fiber, on DM basis, in the low soluble fiber [LSF] diet; 10.2% in the medium soluble fiber [MSF] diet; and 14.5% in the high soluble fiber [HSF] diet). They were obtained by replacing half of the dehydrated alfalfa in the MSF diet with a mixture of beet and apple pulp (HSF diet) or with a mix of oat hulls and soybean protein (LSF diet). Thirty rabbits with ileal T-cannulas were used to determine ileal and fecal digestibility. Cecal digestibility was determined by difference between fecal and ileal digestibility. Insoluble fiber was measured as NDF, insoluble dietary fiber (IDF), and in vitro insoluble fiber, whereas soluble fiber was calculated as the difference between total dietary fiber (TDF) and NDF (TDF_NDF), IDF (TDF-IDF), and in vitro insoluble fiber (TDF-in vitro insoluble fiber). The intestinal mucin content was used to correct the TDF and soluble fiber digestibility. Ileal and fecal concentration of mucin increased from the LSF to the HSF diet group (P < 0.01). Once corrected for intestinal mucin, ileal and fecal digestibility of TDF and soluble fiber increased whereas cecal digestibility decreased (P < 0.01). Ileal digestibility of TDF increased from the LSF to the HSF diet group (12.0 vs. 28.1%; P < 0.01), with no difference in the cecum (26.4%), resulting in a higher fecal digestibility from the LSF to the HSF diet group (P < 0.01). Ileal digestibility of insoluble fiber increased from the LSF to the HSF diet group (11.3 vs. 21.0%; P < 0.01), with no difference in the cecum (13.9%) and no effect of fiber method, resulting in a higher fecal digestibility for rabbits fed the HSF diet compared with the MSF and LSF diets groups (P < 0.01).Fecal digestibility of NDF was higher compared with IDF or in vitro insoluble fiber (P < 0.01). Ileal soluble fiber digestibility was higher for the HSF than for the LSF diet group (43.6 vs. 14.5%; P < 0.01) and fiber method did not affect it. Cecal soluble fiber digestibility decreased from the LSF to the HSF diet group (72.1 vs. 49.2%; P < 0.05). The lowest cecal and fecal soluble fiber digestibility was measured using TDF-NDF (P < 0.01). In conclusion, a correction for intestinal mucin is necessary for ileal TDF and soluble fiber digestibility whereas the selection of the fiber method has a minor relevance. The inclusion of sugar beet and apple pulp increased the amount of TDF fermented in the small intestine.
Application of the Boundary Method to the determination of the properties of the beam cross-sections
Resumo:
Using the 3-D equations of linear elasticity and the asylllptotic expansion methods in terms of powers of the beam cross-section area as small parameter different beam theories can be obtained, according to the last term kept in the expansion. If it is used only the first two terms of the asymptotic expansion the classical beam theories can be recovered without resort to any "a priori" additional hypotheses. Moreover, some small corrections and extensions of the classical beam theories can be found and also there exists the possibility to use the asymptotic general beam theory as a basis procedure for a straightforward derivation of the stiffness matrix and the equivalent nodal forces of the beam. In order to obtain the above results a set of functions and constants only dependent on the cross-section of the beam it has to be computed them as solutions of different 2-D laplacian boundary value problems over the beam cross section domain. In this paper two main numerical procedures to solve these boundary value pf'oblems have been discussed, namely the Boundary Element Method (BEM) and the Finite Element Method (FEM). Results for some regular and geometrically simple cross-sections are presented and compared with ones computed analytically. Extensions to other arbitrary cross-sections are illustrated.