23 resultados para Proteínas Nucleares


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto se basa en el sistema JRodos de ayuda a la toma de decisiones en tiempo real en caso de emergencias nucleares y radiológicas. Tras una breve descripción del mismo, se presentan los modelos de cálculo que utiliza el sistema y la organización modular en la que se estructura el programa. Concretamente este documento se centra en un módulo desarrollado recientemente denominado ICRP y caracterizado por tener en cuenta todas las vías de exposición a la contaminación radiológica, incluida la vía de la ingestión que no se había tenido en cuenta en los módulos previos. Este modelo nuevo utiliza resultados obtenidos a partir de la cadena de escala local LSMC como datos de entrada, por lo que se lleva a cabo una descripción detalla del funcionamiento y de la ejecución tanto del módulo ICRP como de la cadena previa LSMC. Finalmente, se ejecuta un ejercicio ICRP usando los datos meteorológicos y de término fuentes reales que se utilizaron en el simulacro CURIEX 2013 realizado en el mes de noviembre de 2013 en la Central Nuclear de Almaraz. Se presenta paso a paso la ejecución de este ejercicio y posteriormente se analizan y explican los resultados obtenidos acompañados de elementos visuales proporcionados por el programa. This project is based on the real time online decision support system for nuclear emergency management called JRodos. After a brief description of it, the calculation models used by the system and its modular organization are presented. In particular, this paper focuses on a newly developed module named ICRP. This module is characterized by the consideration of the fact that all terrestrial exposure pathways, including ingestion, which has not been considered in previous modules. This new model uses the results obtained in a previous local scale model chain called LSMC as input. In this document a detailed description of the operation and implementation of both the ICRP module and its previous LSMC chain is presented. To conclude, an ICRP exercise is performed with real meteorological and source term data used in the simulation exercise CURIEX 2013 carried out in the Almaraz Nuclear Power Plant in November 2013. A stepwise realization of this exercise is presented and subsequently the results are deeply explained and analyzed supplemented with illustrations provided by the program.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aquí se comentarán algunos criterios que se deben tener en cuenta en el diseño de obras singulares. En particular, se pondrá un especial enfásis en la elaboración de los datos precisos para un análisis sísmico, aspecto de excepcional importancia y que contiene numerosas cuestiones abiertas, en espera de acuerdo entre los expertos. Se finalizará esta exposición con un breve resumen de los métodos y modelos de cálculo más utilizados en el análisis y su rango de aplicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El principal objetivo de esta tesis fue incrementar la eficiencia proteica en las dietas de rumiantes mediante el uso de proteínas protegidas (harina de girasol y guisante de primavera), así como mejorar la predicción de los aportes de proteína microbiana. Una partida de harinas comerciales de girasol (HG) y de guisante de primavera (GP) fueron tratadas con soluciones 4 N de ácido málico (268,2 g/L) o ácido ortofosfórico (130,6 g/L). Para cada harina, ácido y día de tratamiento, dos fracciones de 12,5 kg fueron pulverizadas sucesivamente en una hormigonera con la solución de ácido correspondiente mediante un pulverizador de campo. Las dos fracciones fueron mezcladas posteriormente y se dejaron reposar durante 1 h a temperatura ambiente. La mezcla fue luego secada en una estufa de aire forzado a 120 ºC durante 1 h. La estufa fue apagada inmediatamente después y el material tratado se mantuvo dentro de ésta hasta la mañana siguiente. El material fue removido durante el proceso de secado cada 30 min durante las primeras 2 h y cada 60 min durante las 5 h posteriores. Este proceso se repitió hasta conseguir las cantidades de harinas tratadas necesarias en los distintos ensayos. En el primer experimento (capitulo 3) se llevaron a cabo estudios de digestión ruminal e intestinal para evaluar los efectos de la aplicación de las soluciones ácidas indicadas y calor a fin de proteger las proteínas de HG y GP contra la degradación ruminal. Estos estudios se realizaron con tres corderos canulados en el rumen y en el duodeno. El estudio de digestión ruminal fue realizado en tres periodos experimentales en los que los corderos fueron alimentados sucesivamente con tres dietas isoproteicas que incluían HG y GP, sin tratar o tratadas con ácidos málico u ortofosfórico. Cada periodo experimental de 21 días incluyó sucesivamente: 10 días de adaptación a las dietas, un estudio del tránsito ruminal de las partículas de HG y GP (días 11 a 14), y la incubación de las muestras de ambos alimentos en bolsas de nailon (días 15–21). Las harinas incubadas en cada periodo experimental correspondieron a las que fueron incluidas en las dietas. Las bacterias ruminales fueron marcadas desde el día 11 hasta el día 21 del periodo experimental mediante infusión intra-ruminal continua con una fuente de 15N. Tras finalizar las incubaciones in situ el día 21 el rumen fue vaciado en cada periodo para aislar las bacterias asociadas a la fase sólida y liquida del rumen. El estudio de digestión intestinal fue realizado veinte días después del final del estudio ruminal a fin de eliminar el enriquecimiento en 15N de la digesta. En este estudio se incubaron muestras compuestas obtenidas mediante la combinación de los diferentes residuos no degradados en el rumen de forma que fuesen representativas de la composición química de la fracción no degradada en el rumen (RU). En esta fase los corderos fueron alimentados con la dieta sin tratar para determinar la digestibilidad de las harinas tanto tratadas como sin tratar mediante la técnica de las bolsas móviles. Además, las proteínas contenidas en las harinas tratadas y sin tratar, así como en las muestras correspondientes a los residuos a 0 h, las muestras compuestas anteriormente indicadas y las muestras no digeridas intestinalmente fueron extraídas y sometidas a electroforesis para determinar el sitio de digestión de las diferentes fracciones proteicas. Las estimaciones de la RU y la digestibilidad intestinal de la materia seca, la materia orgánica (solamente para RU), la proteína bruta (PB) y el almidón (solamente en GP) fueron obtenidos considerando la contaminación microbiana y las tasas de conminución y salida de partículas. Las estimaciones de RU y de la digestibilidad intestinal disminuyeron en todas las fracciones evaluadas de ambos alimentos al corregir por la contaminación microbiana acaecida en el rumen. Todas las estimaciones de RU aumentaron con los tratamientos de protección, incrementándose también la digestibilidad intestinal de la materia seca en la HG. Los bajos valores de la digestibilidad de la proteína de GP tratado y sin tratar sugieren la presencia de algún factor antitripsico no termolábil es esta harina. Los tratamientos de protección incrementaron consistentemente la fracción de materia seca y PB digerida intestinalmente en los dos alimentos, mientras que la fracción de almidón en la muestra de GP solamente aumentó numéricamente (60,5% de media). Sin embargo, los tratamientos también redujeron la fermentación de la materia orgánica, lo cual podría disminuir la síntesis de proteína microbiana. Los estudios de electroforesis muestran la práctica desaparición de la albumina por la degradación ruminal en ambos alimentos, así como que los cambios en otras proteínas de la muestra RU fueron más pronunciados en GP que en HG. La composición de las bacterias asociadas con las fases de digesta ruminal sólida (BAS) y líquida (BAL) fue estudiada para revisar la precisión de un sistema de predicción previo que determinaba la infravaloración del aporte de nutrientes correspondiente a las BAS cuando de usa 15N como marcador y las BAL como referencia microbiana (capitulo 4). Al comparar con BAS, BAL mostraron menores contenidos en materia orgánica, polisacáridos de glucosa y lípidos totales y un mayor contenido en PB, así como un mayor enriquecimiento en 15N. Los datos obtenidos en el estudio actual se ajustan bien a la ecuación previa que predice el enriquecimiento en 15N de las BAS a partir del mismo valor en BAL. Esta nueva ecuación permite establecer que se produce una infravaloración de un 22% en el aporte de PB al animal a partir de las BAS sintetizadas si las BAL son usadas como muestras de referencia. Una segunda relación calculada utilizando los valores medios por dieta expuestos en numerosos trabajos encontrados en la literatura confirma la magnitud de este error. Esta infravaloración asociada al uso de BAL como referencia fue mayor para el aporte de glucosa (43,1%) y todavía mayor para el aporte de lípidos (59,9%), como consecuencia de los menores contenidos de ambas fracciones en BAL frente a SAB. Estos errores deberían ser considerados para obtener mayor precisión en la estimación del aporte de nutrientes microbianos y mejorar la nutrición de los rumiantes. En el experimento 2 se realizó un estudio de producción (capitulo 5) para evaluar los efectos del tratamiento de las harinas HG y GP con soluciones de ácido málico o ácido ortofosfórico sobre el crecimiento, el consumo de concentrado y el rendimiento y engrasamiento de las canales de corderos de engorde. Noventa corderos machos de cruce entrefino procedentes de tres granjas comerciales (peso inicial medio = 14,6, 15,3 y 13,3 kg, respectivamente) fueron asignados aleatoriamente a cinco dietas con diferentes niveles de proteína y diferentes tratamientos con ácidos y engordados hasta un peso medio al sacrificio de 25 kg. Las fuentes de proteína en el pienso control (C; PB=18,0%) fueron harina de soja, HG y GP sin tratar. En tres de los piensos experimentales, las harinas tratadas con ácido ortofosfórico sustituyeron a las de HG y GP sin tratar (Control Ortofosfórico, PC; PB=18,0% sobre materia seca), sustituyéndose, además, la harina de soja parcialmente (Sustitución Media Ortofosfórico, MSP; PB=16,7%) o totalmente (Sustitución Total Ortofosfórico, TSP; PB=15,6%). Finalmente, en uno de los piensos el ácido ortofosfórico fue reemplazo por acido málico para proteger ambas harinas (Sustitución Media Málico, MSM; PB= 16,7%). La paja de trigo (fuente de forraje) y el concentrado fueron ofrecidos ad libitum. Dieciocho corderos fueron distribuidos en seis cubículos con tres animales para cada dieta. Los datos fueron analizados según un análisis factorial considerando el peso inicial como covariable y la granja de procedencia como bloque. Los datos de consumo de concentrado y eficiencia de conversión fueron analizados usando el cubículo como unidad experimental, mientras que los datos sobre ganancia media diaria, rendimiento a la canal, grasa dorsal y grasa pélvico renal fueron analizados usando el cordero como unidad experimental. No se encontró ningún efecto asociado con el nivel de PB sobre ninguna variable estudiada. Esto sugiere que usando proteínas protegidas es posible utilizar concentrados con 15,6% de PB (sobre materia seca) disminuyendo así la cantidad de concentrados de proteína vegetal a incluir en los piensos y la calidad de los concentrados proteicos. Los corderos alimentados con la dieta MSM tuvieron mayores ganancias medias diarias (15,2%; P= 0,042), y mejores rendimiento a la canal en caliente (1,3 unidades porcentuales; P= 0,037) que los corderos alimentados con el concentrado MSP. Esto podría ser explicado por los efectos benéficos ruminales del malato o por el mayor efecto de protección conseguido con el ácido málico. ABSTRACT The main objective of this thesis project was to increase the protein efficiency in ruminant diets by using protected protein (sunflower meal and spring pea), and improving the prediction of microbial protein supply. Commercial sunflower meal (SFM) and spring pea (SP) were treated with 4 N solutions (200 mL/kg) of malic acid (268.2 g/L) or orthophosphoric acid (130.6 g/L). Daily, two fractions of 12.5 kg of one of these meals were successively sprayed with the tested acid solution in a concrete mixer using a sprayer. Both fractions were then mixed and allowed to rest for 1 h at room temperature. The blend was then dried in a forced air oven at 120 ºC for 1 h. Then the oven was turned off and the treated material was left in the oven overnight. During the drying process, the material was stirred every 30 min during the first 2 h and then every 60 min for the subsequent 5 h. This process was repeated until the amounts of treated flour needed for the different trials performed. In the first experiment (chapter 3), ruminal and intestinal digestion trials were conducted to study the effects of the application of these acid solutions and heat to protect proteins of SFM and SP against ruminal degradation using three wethers fitted with rumen and duodenum cannulae. The ruminal digestion study was carried out in three experimental periods in which the wethers were successively fed three isoproteic diets including SFM and SP, untreated or treated with malic or orthophosphoric acids. The experimental periods of 21 days included successively: 10 days of diet adaptation, SFM and SP particle ruminal transit study (days 11–14) and ruminal nylon-bag incubations (days 15–21). The meals incubated in each experimental period were those corresponding to the associated diet. Rumen bacteria were labelled from days 11 to 21 by continuous intra-ruminal infusion of a 15N source and the rumen was emptied at the end of in situ incubations in each period to isolate solid adherent bacteria and liquid associate bacteria. The intestinal digestion trial was conducted twenty days after the end of the ruminal studies to eliminate the 15N enrichment in the digesta. The tested samples were composite samples obtained pooling the different ruminally undegraded residues to be representative of the chemical composition of the ruminally undegraded fraction (RU). Wethers were fed the untreated diet to determine the intestinal digestibility of untreated and treated meals using the mobile nylon bag technique. In addition, protein in untreated and treated meals and their 0 h, composite and intestinally undigested samples were extracted and subjected to electrophoresis to determine the digestion site of the different protein fractions. Estimates of the RU and its intestinal digestibility of dry matter, organic matter (only for RU), crude protein (CP) and starch (only in SP) were obtained considering ruminal microbial contamination and particle comminution and outflow rates. When corrected for the microbial contamination taking place in the rumen, estimates of RU and intestinal digestibility decreased in all tested fractions for both feeds. All RU estimates increased with the protective treatments, whereas intestinal digestibility-dry matter also increased in SFM. Low intestinal digestibility-CP values in untreated and treated samples suggested the presence of non-heat labile antitrypsin factors in SP. Protective treatments of both feeds led to consistent increases in the intestinal digested fraction of dry matter and CP, being only numerically different for SP-starch (60.5% as average). However, treatments also reduced the organic matter fermentation, which may decrease ruminal microbial protein synthesis. Electrophoretic studies showed albumin disappearance in both SFM and SP, whereas changes in other RU proteins were more pronounced in SP than SFM. The chemical composition of bacteria associated with solid (SAB) and liquid (LAB) rumen-digesta phases was studied to examine the accuracy of a previous regression system determining the underevaluation of SAB-nutrient supply using 15N as marker and LAB as microbial reference (chapter 4). Compared with SAB, LAB showed lower contents of organic matter, polysaccharide-glucose and total lipids and the opposite for the CP content and the 15N enrichment. Present data fitted well to the previous relationship predicting the 15N enrichment of SAB from the same value in LAB. This new equation allows establishing an underevaluation in the supply of CP from the synthesized SAB in 22.0% if LAB is used as reference. Another relationship calculated using mean diet values from the literature confirmed the magnitude of this error. This underevaluation was higher for the supply of glucose (43.1%) and still higher for the lipid supply (59.9%) as a consequence of the lower contents of these both fractions in LAB than in SAB. These errors should be considered to obtain more accurate estimates of the microbial nutrient supply and to improve ruminant nutrition. A production study was performed in experiment 2 (chapter 5) to examine the effects of treating SFM and SP meals with orthophosphoric or malic acid solutions on growth performance, concentrate intake, and carcass yield and fatness of growing-fattening lambs. Ninety "Entrefino" cross male lambs from three commercial farms (average initial body weights (BW) = 14.6, 15.3 and 13.3 kg) were randomly assigned to five diets with different acid treatment and protein levels, and fattened to an average slaughter weight of 25 kg. Protein sources in the control concentrate (C; CP=18%) were soybean meal and untreated SFM and SP. In three of the experimental concentrates, orthophosphoric acid-treated meals substituted untreated SFM and SP (Orthophosphoric Control, PC; CP=18% dry matter basis), and soybean meal was partially (Medium Substitution Orthophosphoric, MSP; CP=16.7%) or totally removed (Total Substitution Orthophosphoric, TSP; CP=15.6%). In addition, in one concentrate orthophosphoric acid was replaced by malic acid to protect these meals (Medium Substitution Malic, MSM; CP= 16.7%). Wheat straw (roughage source) and concentrate were offered ad libitum. Eighteen lambs were allocated to six pens of three animals on each diet. Data were analyzed using a factorial analysis with initial body weight BW as covariate and farm of origin as block. Data on concentrate intake and feed conversion efficiency were analyzed using pen as experimental unit, while data on average daily gain, carcass yield, dorsal fat, and kidney-pelvic-fat were analyzed with lamb as experimental unit. No effect associated with the CP level was observed on any parameter. This suggests that with protected proteins it is possible to feed concentrates with 15.6% CP (dry matter basis) reducing the quantity of vegetable protein meals to include in the concentrate as well as the quality of the protein concentrates. Lambs feed MSM had higher average daily gains (15.2%; P= 0.042), and better hot carcass yields (1.3 percentage points; P= 0.037) than lambs feed MSP. This probably can be explained by ruminal malate actions and by greater protection effects obtained with malic acid.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recientemente se ha demostrado la existencia de microorganismos en las piscinas de almacenamiento de combustible nuclear gastado en las centrales nucleares utilizando técnicas convencionales de cultivo en el laboratorio. Estudios posteriores han puesto de manifiesto que los microorganismos presentes eran capaces de colonizar las paredes de acero inoxidable de las piscinas formando biopelículas. Adicionalmente se ha observado la capacidad de estas biopelículas de retener radionúclidos, lo que hace pensar en la posibilidad de utilizarlas en la descontaminación de las aguas radiactivas de las piscinas. En la presente tesis se plantea conocer más profundamente la biodiversidad microbiana de las biopelículas utilizando técnicas de biología molecular como la clonación, además de desarrollar un sistema de descontaminación a escala piloto con el objetivo de valorar si el proceso podría resultar escalable a nivel industrial. Para ello se diseñaron y fabricaron dos biorreactores en acero inoxidable compatibles con las condiciones específicas de seguridad sísmica y protección frente a la radiación en la zona controlada de una central nuclear. Los biorreactores se instalaron en la Central Nuclear de Cofrentes (Valencia) en las proximidades de las piscinas de almacenamiento de combustible nuclear gastado y precediendo a las resinas de intercambio iónico, de forma que reciben el agua de las piscinas permitiendo el análisis in situ de la radiación eliminada del agua de las mismas. Se conectó una lámpara de luz ultravioleta a uno de los biorreactores para poder comparar el desarrollo de bipelículas y la retención de radiactividad en ambas condiciones. En estos biorreactores se introdujeron ovillos de acero inoxidable y de titanio que se extrajeron a diversos tiempos, hasta 635 días para los ovillos de acero inoxidable y hasta 309 días para los ovillos de titanio. Se analizaron las biopelículas desarrolladas sobre los ovillos por microscopía electrónica de barrido y por microscopía de epifluorescencia. Se extrajo el ADN de las biopelículas y, tras su clonación, se identificaron los microorganismos por técnicas independientes de cultivo. Asimismo se determinó por espectrometría gamma la capacidad de las biopelículas para retener radionúclidos. Los microorganismos radiorresistentes identificados pertenecen a los grupos filogenéticos Alpha-proteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus y Bacteroidetes. Las secuencias de estos microorganismos se han depositado en el GenBank con los números de acceso KR817260-KR817405. Se ha observado una distribución porcentual ligeramente diferente en relación con el tipo de biorreactor. Las biopelículas han retenido fundamentalmente radionúclidos de activación. La suma de Co-60 y Mn-54 ha llegado en ocasiones al 97%. Otros radionúclidos retenidos han sido Cr-51, Co-58, Fe-59, Zn-65 y Zr-95. Se sugiere un mecanismo del proceso de retención de radionúclidos relacionado con el tiempo de formación y desaparición de las biopelículas. Se ha valorado que el proceso escalable puede ser económicamente rentable. ABSTRACT The existence of microorganisms in spent nuclear fuel pools has been demonstrated recently in nuclear power plants by using conventional microbial techniques. Subsequent studies have revealed that those microorganisms were able to colonize the stainless steel pool walls forming biofilms. Additionally, it has been observed the ability of these biofilms to retain radionuclides, which suggests the possibility of using them for radioactive water decontamination purposes. This thesis presents deeper knowledge of microbial biofilms biodiversity by using molecular biology techniques such as cloning, and develops a decontamination system on a pilot scale, in order to assess whether the process could be scalable to an industrial level. Aiming to demonstrate this was feasible, two stainless steel bioreactors were designed and manufactured, both were compatible with seismic and radiation protection standards in the controlled zone of a nuclear plant. These bioreactors were installed in the Cofrentes Nuclear Power Plant (Valencia) next to the spent nuclear fuel pools and preceding (upstream) ion exchange resins. This configuration allowed the bioreactors to receive water directly from the pools allowing in situ analysis of radiation removal. One ultraviolet lamp was connected to one of the bioreactors to compare biofilms development and radioactivity retention in both conditions. Stainless steel and titanium balls were introduced into these bioreactors and were removed after different time periods, up to 635 days for stainless steel balls and up to 309 days for titanium. Biofilms developed on the balls were analyzed by scanning electron microscopy and epifluorescence microscopy. DNA was extracted from the biofilms, was cloned and then the microorganisms were identified by independent culture techniques. Biofilms ability to retain radionuclides was also determined by gamma spectrometry. The identified radioresistant organisms belong to the phylogenetic groups Alphaproteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus and Bacteroidetes. The sequences of these microorganisms have been deposited in GenBank (access numbers KR817260-KR817405). A different distribution of microorganisms was observed in relation to the type of bioreactor. Biofilms have essentially retained activation radionuclides. Sometimes the sum of Co-60 and Mn-54 reached 97%. Cr-51, Co-58, Fe-59, Zn-65 and Zr-95 have also been retained. A radionuclide retention process mechanism related to biofilms formation and disappearance time is suggested. It has been assessed that the scalable process can be economically profitable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El accidente de pérdida de refrigerante (LOCA) en un reactor nuclear es uno de los accidentes Base de Diseño más preocupantes y estudiados desde el origen del uso de la tecnología de fisión en la industria productora de energía. El LOCA ocupa, desde el punto de vista de los análisis de seguridad, un lugar de vanguardia tanto en el análisis determinista (DSA) como probabilista (PSA), cuya diferenciada perspectiva ha ido evolucionando notablemente en lo que al crédito a la actuación de las salvaguardias y las acciones del operador se refiere. En la presente tesis se aborda el análisis sistemático de de las secuencias de LOCA por pequeña y mediana rotura en diferentes lugares de un reactor nuclear de agua a presión (PWR) con fallo total de Inyección de Seguridad de Alta Presión (HPSI). Tal análisis ha sido desarrollado en base a la metodología de Análisis Integrado de Seguridad (ISA), desarrollado por el Consejo de Seguridad Nuclear (CSN) y consistente en la aplicación de métodos avanzados de simulación y PSA para la obtención de Dominios de Daño, que cuantifican topológicamente las probabilidades de éxito y daño en función de determinados parámetros inciertos. Para la elaboración de la presente tesis, se ha hecho uso del código termohidráulico TRACE v5.0 (patch 2), avalado por la NRC de los EEUU como código de planta para la simulación y análisis de secuencias en reactores de agua ligera (LWR). Los objetivos del trabajo son, principalmente: (1) el análisis exhaustivo de las secuencias de LOCA por pequeña-mediana rotura en diferentes lugares de un PWR de tres lazos de diseño Westinghouse (CN Almaraz), con fallo de HPSI, en función de parámetros de gran importancia para los transitorios, tales como el tamaño de rotura y el tiempo de retraso en la respuesta del operador; (2) la obtención y análisis de los Dominios de Daño para transitorios de LOCA en PWRs, de acuerdo con la metodología ISA; y (3) la revisión de algunos de los resultados genéricos de los análisis de seguridad para secuencias de LOCA en las mencionadas condiciones. Los resultados de la tesis abarcan tres áreas bien diferenciadas a lo largo del trabajo: (a) la fenomenología física de las secuencias objeto de estudio; (b) las conclusiones de los análisis de seguridad practicados a los transitorios de LOCA; y (c) la relevancia de las consecuencias de las acciones humanas por parte del grupo de operación. Estos resultados, a su vez, son de dos tipos fundamentales: (1) de respaldo del conocimiento previo sobre el tipo de secuencias analizado, incluido en la extensa bibliografía examinada; y (2) hallazgos en cada una de las tres áreas mencionadas, no referidos en la bibliografía. En resumidas cuentas, los resultados de la tesis avalan el uso de la metodología ISA como método de análisis alternativo y sistemático para secuencias accidentales en LWRs. ABSTRACT The loss of coolant accident (LOCA) in nuclear reactors is one of the most concerning and analized accidents from the beginning of the use of fission technology for electric power production. From the point of view of safety analyses, LOCA holds a forefront place in both Deterministic (DSA) and Probabilistic Safety Analysis (PSA), which have significantly evolved from their original state in both safeguard performance credibility and human actuation. This thesis addresses a systematic analysis of small and medium LOCA sequences, in different places of a nuclear Pressurized Water Reactor (PWR) and with total failure of High Pressure Safety Injection (HPSI). Such an analysis has been grounded on the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Regulatory Body (CSN). ISA involves the application of advanced methods of simulation and PSA for obtaining Damage Domains that topologically quantify the likelihood of success and damage regarding certain uncertain parameters.TRACE v5.0 (patch 2) code has been used as the thermalhydraulic simulation tool for the elaboration of this work. Nowadays, TRACE is supported by the US NRC as a plant code for the simulation and analysis of sequences in light water reactors (LWR). The main objectives of the work are the following ones: (1) the in-depth analysis of small and medium LOCA sequences in different places of a Westinghouse three-loop PWR (Almaraz NPP), with failed HPSI, regarding important parameters, such as break size or delay in operator response; (2) obtainment and analysis of Damage Domains related to LOCA transients in PWRs, according to ISA methodology; and (3) review some of the results of generic safety analyses for LOCA sequences in those conditions. The results of the thesis cover three separated areas: (a) the physical phenomenology of the sequences under study; (b) the conclusions of LOCA safety analyses; and (c) the importance of consequences of human actions by the operating crew. These results, in turn, are of two main types: (1) endorsement of previous knowledge about this kind of sequences, which is included in the literature; and (2) findings in each of the three aforementioned areas, not reported in the reviewed literature. In short, the results of this thesis support the use of ISA-like methodology as an alternative method for systematic analysis of LWR accidental sequences.