20 resultados para ALMACENES AL POR MENOR
Resumo:
Para determinar la resistencia al fuego de la estructura de un edificio histórico de Madrid, se utiliza la normativa actual (CTE 2006). Se estudiarán las diversas posibilidades que ofrece el código con el fin de que la solución propuesta implique el menor grado de intervención posible, permitiendo mantener las condiciones arquitectónicas originales del edificio. Para ello, y como se estudiará a lo largo del trabajo, será necesario recurrir a la resistencia al fuego mediante el tiempo equivalente en el que influyen diversos factores (tamaño del edificio, materiales, ventilación, medidas activas en la lucha contra el fuego, etc.).
Resumo:
El objetivo de este trabajo de investigación fue evaluar el efecto de la aplicación de lodos residuales procedentes de una planta de tratamiento de aguas residuales acondicionados como biosólido para el abonado de tres cultivos agrícolas. Esto se realizó a través del estudio de las variables de producción (desarrollo vegetal de cada cultivo) y de la comparación de las características de los suelos utilizados antes y después de los ensayos experimentales. A través de la investigación se confirmó la mejora en la calidad del suelo y mejor rendimiento de cultivo debido a los biosólidos procedentes de tratamiento de aguas residuales. Este trabajo de investigación de tipo descriptivo y experimental, utilizó lodos optimizados que fueron aplicados a tres cultivos agrícolas de ciclo corto. Fueron evaluados dos cultivos (sandía y tomate) bajo riego y un cultivo (arroz) en secano. En la primera fase del trabajo se realizó la caracterización de los lodos, para ellos se realizaron pruebas físico químicas y microbiológicas. Fue utilizado el método de determinación de metales por espectrometría de emisión atómica de plasma acoplado inductivamente, (ICP-AES) para conocer las concentraciones de metales. La caracterización microbiológica para coliformes totales y fecales se realizó utilizando la técnica del Número más probable (NMP), y para la identificación de organismos patógenos se utilizó el método microbiológico propuesto por Kornacki & Johnson (2001), que se fundamenta en dos procesos: pruebas presuntivas y prueba confirmativa. Tanto los resultados para la determinación de metales y elementos potencialmente tóxicos; como las pruebas para la determinación de microorganismos potencialmente peligrosos, estuvieron por debajo de los límites considerados peligrosos establecidos por la normativa vigente en Panama (Reglamento Técnico COPANIT 47-2000). Una vez establecido la caracterización de los lodos, se evalúo el potencial de nutrientes (macro y micro) presentes en los biosólidos para su potencial de uso como abono en cultivos agrícolas. El secado de lodos fue realizado a través de una era de secado, donde los lodos fueron deshidratados hasta alcanzar una textura pastosa. “La pasta de lodo” fue transportada al área de los ensayos de campo para continuar el proceso de secado y molida. Tres ensayos experimentales fueron diseñados al azar con cinco tratamientos y cuatro repeticiones para cada uno de los tres cultivos: sandía, tomate, arroz, en parcelas de 10m2 (sandía y tomate) y 20 m2 (arroz) para cada tratamiento. Tres diferentes dosis de biosólidos fueron evaluadas y comparadas con un tratamiento de fertilizante comercial y un tratamiento control. La dosis de fertilizante comercial utilizada en cada cultivo fue la recomendada por el Instituto de Investigación Agropecuaria de Panamá. Los ensayos consideraron la caracterización inicial del suelo, la preparación del suelo, semilla, y arreglo topográfico de los cultivos siguiendo las recomendaciones agronómicas de manejo de cultivo establecida por el Instituto de Investigación Agropecuaria. Para los ensayos de sandía y tomate se instaló el sistema de riego por goteo. Se determinaron los ácidos húmicos presentes en los cultivos, y se estudiaron las variables de desarrollo de cada cultivo (fructificación, cosecha, peso de la cosecha, dimensiones de tamaño y color de las frutas, rendimiento, y la relación costo – rendimiento). También se estudiaron las variaciones de los macro y micro nutrientes y las variaciones de pH, textura de suelo y MO disponible al inicio y al final de cada uno de los ensayos de campo. Todas las variables y covariables fueron analizadas utilizando el programa estadístico INFOSAT (software para análisis estadístico de aplicación general) mediante el análisis de varianza, el método de comparaciones múltiples propuesto por Fisher (LSD Fisher) para comparar las medias de los cultivares y el coeficiente de correlación de Pearson que nos permite analizar si existe una asociación lineal entre dos variables. En la evaluación de los aportes del biosólido a los cultivos se observó que los macronutrientes N y P se encontraban de los límites requeridos en cada uno de los cultivos, pero que los niveles de K estuvieron por debajo de los requerimientos de los cultivos. A nivel de la fertilización tradicional con fertilizante químico se observó que la dosis recomendada para cada uno de los cultivos del estudio estaba sobreestimada en los tres principales macronutrientes: Nitrógeno, Fosforo y Potasio. Contenían concentraciones superiores de N, P y K a las requeridas teóricamente por el cultivo. El nutriente que se aporta en exceso es el Fósforo. Encontramos que para el cultivo de sandía era 18 veces mayor a lo requerido por el cultivo, en tomate fue 12 veces mayor y en el cultivo de arroz, 34 veces mayor. El fertilizante comercial tuvo una influencia en el peso final y rendimiento final en cada uno de los cultivos del estudio. A diferencia, los biosólidos tuvieron una influencia directa en el desarrollo de los cultivos (germinación, coloración, tamaño, longitud, diámetro, floración y resistencia a enfermedades). Para el caso de la sandía la dosis de biosólido más cercana al óptimo para el cultivo es la mayor dosis aplicada en este ensayo (97.2 gramos de biosólido por planta). En el caso de tomate, el fertilizante comercial obtuvo los mejores valores, pero las diferencias son mínimas con relación al tratamiento T1, de menor dosis de biosólido (16.2 gramos de biosólido por planta). Los resultados generales del ensayo de tomate estuvieron por debajo del rendimiento esperado para el cultivo. Los tratamientos de aplicación de biosólidos aportaron al desarrollo del cultivo en las variables tamaño, color y resistencia a las enfermedades dentro del cultivo de tomate. Al igual que el tomate, en el caso del arroz, el tratamiento comercial obtuvo los mejores resultados. Los resultados finales de peso y rendimiento del cultivo indican que el tratamiento (T2), menor dosis de biosólido (32.4 gramos por parcela), no tuvo diferencias significativas con los resultados obtenidos en las parcelas con aplicación de fertilizante comercial (T1). El tratamiento T4 (mayor dosis de biosólido) obtuvo los mejores valores para las variables germinación, ahijamiento y espigamiento del cultivo, pero al momento de la maduración obtuvo los menores resultados. Los biosólidos aportan nutrientes a los cultivos y al final del ensayo se observó que permanecen disponibles en el suelo, aportando a la mejora del suelo final. En los tres ensayos, se pudo comprobar que los aportes de los biosólidos en el desarrollo vegetativo de los cultivos. También se encontró en todos los ensayos que no hubo diferencias significativas (p > 0.05) entre los tratamientos de biosólidos y fertilizante comercial. Para obtener mejores resultados en estos tres ensayos se requeriría que a la composición de biosólidos (utilizada en este ensayo) se le adicione Potasio, Calcio y Magnesio en las cantidades requeridas por cada uno de los cultivos. ABSTRACT The objective of this investigation was to evaluate the effect of residual sewage sludge obtained from the residual water of a treatment plant conditioned as Biosolid used on three reliable agricultural crops. The effect of the added sewage sludge was evaluated through the measurement of production variables such as crop plant development and the comparison of the soil characteristics used before and after the experimental tests. This investigation confirmed that biosolids from wastewater treatment can contribute to the growth of these crops. In this experimental approach, optimized sludge was applied to three short-cycle crops including two low-risk crops (watermelon and tomato) and one high-risk crop (rice) all grown on dry land. In the first phase of work, the characteristics of the sludge were assessed using chemical, physical and microbiological tests. The concentrations of metals were determined by atomic emission spectrometry inductively coupled plasma, (ICP-AES). Microbiological characterization was performed measuring total coliform and fecal count using the most probable number technique (NMP) and microbiological pathogens were identified using Kornacki & Johnson (2001) method based on two processes: presumptive and confirmatory tests. Both the results for the determination of metals and potentially toxic elements, as testing for the determination of potentially dangerous microorganisms were below the limits established by the applicable standard in Panama (Technical Regulate COPANIT 47-2000). After the metal and bacterial characterization of the sludge, the presence of macro or micronutrients in biosolids was measured to evaluate its potential for use as fertilizer in the growth of agricultural crops. The sludge was dehydrated via a drying process into a muddy slurry. The pulp slurry was transported to the field trial area to continue the process of drying and grinding. Three randomized experimental trials were designed to test with five treatment regimens and four replications for each of the crops: watermelon, tomato, rice. The five treatment regimens evaluated were three different doses of bio solid with commercial fertilizer treatment control and no fertilizer treatment control. Treatment areas for the watermelon and tomato were 10m2 plots land and for rice was 20m2. The amount of commercial fertilizer used to treat each crop was based on the amount recommended by Agricultural Research Institute of Panama. The experimental trials considered initial characterization of soil, soil preparation, seed, and crop topographical arrangement following agronomic crop management recommendations. For the tests evaluating the growth of watermelons and tomatoes and drip irrigation system was installed. The amount of humic acids present in the culture were determined and developmental variable of each crop were studied (fruiting crop harvest weight, size dimensions and color of the fruit, performance and cost effectiveness). Changes in macro and micronutrients and changes in pH, soil texture and OM available were measured at the beginning and end of each field trial. All variables and covariates were analyzed using INFOSAT statistical program (software for statistical analysis of general application) by analysis of variance, multiple comparisons method as proposed by Fisher (LSD Fisher) to compare the means of cultivars and the Pearson ratio that allows us to analyze if there is a linear association between two variables. In evaluating the contribution of biosolids to agricultural crops, the study determined that the macronutrients N & P were within the requirements of crops, but K levels were below the requirements of crops. In terms of traditional chemical fertilizer fertilization, we observed that the recommended dose for each study crop was overestimated for the three major nutrients: nitrogen, phosphorus and potassium. Higher concentrations containing N, P and K to the theoretically required by the crop. The recommended dose of commercial fertilizer for crops study contained greater amounts of phosphorus, crops that need. The level of phosphorous was found to be18 times greater than was required for the cultivation of watermelon; 12 times higher than required for tomato, and 34 times higher than required for rice cultivation. Phosphorus inputs of commercial fertilizer were a primary influence on the weight and performance of each crop. Unlike biosolids had a direct influence on crop development (germination, color, size, length, diameter, flowering and disease resistance). In the case of growth of watermelons, the Biosolid dose closest to the optimum for cultivation was applied the highest dose in this assay (97.2 grams of bio solids per plant). In the case of tomatoes, commercial fertilizer had the best values but the differences were minimal when compared to treatment T1, the lower dose of sewage sludge (Biosolid 16.2 grams per plant). The overall results for the tomato crop yield of the trial were lower than expected. Additionally, the application of biosolids treatment contributed to the development of fruit of variable size, color and disease resistance in the tomato crops. Similar to the tomato crop, commercial fertilizer treatment provided the best results for the rice crop. The final results of weight and crop yield for rice indicated that treatment with T2 amount of biosolids (34.2 grams per plot) was not significantly different from the result obtained in the application plot given commercial fertilizer (T1). The T4 (higher dose of bio solid) treatment had the best values for the germination, tillering and bolting variables of the rice crop but for fruit ripening yielded lower results. In all three trials, biosolids demonstrated the ability to contribute in the vegetative growth of crops. It was also found in all test no significant differences (p>0.05) between treatment of bio solid and commercial fertilizer. Biosolids provided nutrients to the crops and even at the end of the trial remained available in the ground soil, contributing to the improvement of the final ground. The best results from these three trials is that the use of bio solids such as those used in this assay would require the addition of potassium, calcium and magnesium in quantities required for each crop.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Un incendio en el interior de un almacén de pirotecnia puede provocar la iniciación más o menos simultánea de los artículos existentes en su interior, con su consecuente onda de choque potenciada por la presión de los propios gases generados en su interior. La finalidad de esta tesis doctoral consiste en analizar los fenómenos que se desarrollan como consecuencia de un incendio interior en los almacenes de pirotecnia y establecer posibles medidas eficaces de prevención y protección con objeto de reducir el riesgo de explosión.. Inicialmente se llevó a cabo un análisis del riesgo de explosión, evaluando las consecuencias en caso de producirse un fuego interior. Los resultados fueron catastróficos. Finalmente, y con objeto de minimizar la posibilidad de producirse un incendio en el interior de un almacén, se evaluaron diferentes sistemas de detección y extinción automática de incendios para almacenes pirotécnicos, realizándose pruebas a escala real. En particular, la presente tesis consta de los siguientes trabajos: 1) Evaluación de la sobrepresión generada por la explosión de artificios pirotécnicos en el interior de almacenes, mediante pruebas de explosión de artículos pirotécnicos, con el fin de evaluar las posibles consecuencias en caso de materializarse una explosión, y disponer de información que permita conocer el grado de resistencia de las estructuras de los almacenes, así como el diseño adecuado de las mismas para soportar los efectos de tales explosiones. 2) Evaluación del efecto de un incendio en el interior de un almacén de pirotecnia mediante pruebas a escala real, con el fin de evaluar la posibilidad de la iniciación simultánea de los artículos pirotécnicos almacenados en su interior, y su consecuente explosión, así como las consecuencias en caso de materializarse la explosión. 3) Análisis de sistemas de detección y extinción automática de incendios para almacenes de pirotecnia, mediante la realización de pruebas a escala real para verificar la eficiencia y eficacia de tales sistemas y agentes para sofocar un incendio pirotécnico de forma tal que se evite la posible explosión asociada. 4) Evaluación de nuevos agentes extintores utilizados en los sistemas de extinción automática de incendios, que actualmente se están utilizando en el sector pirotécnico nacional, mediante la realización de pruebas a escala real. Los resultados obtenidos han permitido al Ministerio de Industria, Energía y Turismo actualizar la reglamentación vigente aplicable (Instrucción Técnica Complementaria número 17 del Reglamento de artículos pirotécnicos y cartuchería, aprobado por el Real Decreto 563/2010, de 7 de mayo). ABSTRACT A fire inside a pyrotechnics magazine can cause the more or less simultaneous initiation of the stored articles, with the wave of shock that is produced promoted by the pressure of the gases generated in its interior. The purpose of this PhD thesis is to analyze the phenomena that develop as a result of a fire inside the pyrotechnics stores and establish possible effective prevention and protection measures to reduce the risk of explosionAn analysis of the risk of explosion and fire consequences in a pyrotechnic magazine, testing to real scale, was initially carried out. The results were catastrophic. Finally, and in order to minimize the possibility of a fire inside a pyrotechnic magazine, different systems of detection and automatic extinction of fires in pyrotechnic magazines were evaluated, testing to real scale. Particularly, this thesis has the following parts: 1) Evaluation of the pressure generated by the pyrotechnic explosion in a magazine, with explosión tests of pyrotechnic articles, in order to evaluate the possible consequences in case of materialize an explosion, and provide information to know the resistance grade of the magazine structures, as well as the right design of those to withstand the effects of such explosions. 2) Evaluation of the effect of a fire inside a pyrotechnic magazine by full-scale tests, in order to evaluate the possibility of simultaneous initiation of the pyrotechnic articles stored inside, and the resulting explosion, as well as the consequences in case of materialize an explosion. 3) Analysis and evaluation of detection and automatic fire extinguishing in pyrotechnic magazines, by full-scale tests in order to verify the efficiency and effectiveness of such systems and agents to quell a pyrotechnic fire and avoid the posible mass explosion. 4) Evaluation of new extinguishing agent used in automatic fire extinguishers, which are currently being used in the national fireworks industry, by full-scale tests. The results obtained have allowed the Ministry of Industry, Energy and Tourism, update the current regulation (Complementary Technical Instruction 17 of the Regulation of Pyrotecnic Articles and Ammunition, approved by the Royal Decree 563/2010, of May 7).
Resumo:
En este trabajo se aborda una cuestión central en el diseño en carga última de estructuras de hormigón armado y de fábrica: la posibilidad efectiva de que las deformaciones plásticas necesarias para verificar un estado de rotura puedan ser alcanzadas por las regiones de la estructura que deban desarrollar su capacidad última para verificar tal estado. Así, se parte de las decisiones de diseño que mediante mera estática aseguran un equilibrio de la estructura para las cargas últimas que deba resistir, pero determinando directamente el valor de las deformaciones necesarias para llegar a tal estado. Por tanto, no se acude a los teoremas de rotura sin más, sino que se formula el problema desde un punto de vista elastoplástico. Es decir, no se obvia el recorrido que la estructura deba realizar en un proceso de carga incremental monótono, de modo que las regiones no plastificadas contribuyen a coaccionar las libres deformaciones plásticas que, en la teoría de rotura, se suponen. En términos de trabajo y energía, se introduce en el balance del trabajo de las fuerzas externas y en el de la energía de deformación, aquella parte del sistema que no ha plastificado. Establecido así el balance energético como potencial del sistema es cuando la condición de estacionariedad del mismo hace determinados los campos de desplazamientos y, por tanto, el de las deformaciones plásticas también. En definitiva, se trata de un modo de verificar si la ductilidad de los diseños previstos es suficiente, y en qué medida, para verificar el estado de rotura previsto, para unas determinadas cargas impuestas. Dentro del desarrollo teórico del problema, se encuentran ciertas precisiones importantes. Entre ellas, la verificación de que el estado de rotura a que se llega de manera determinada mediante el balance energético elasto-plástico satisface las condiciones de la solución de rotura que los teoremas de carga última predicen, asegurando, por tanto, que la solución determinada -unicidad del problema elásticocoincide con el teorema de unicidad de la carga de rotura, acotando además cuál es el sistema de equilibrio y cuál es la deformada de colapso, aspectos que los teoremas de rotura no pueden asegurar, sino sólo el valor de la carga última a verificar. Otra precisión se basa en la particularidad de los casos en que el sistema presenta una superficie de rotura plana, haciendo infinitas las posibilidades de equilibrio para una misma deformada de colapso determinada, lo que está en la base de, aparentemente, poder plastificar a antojo en vigas y arcos. Desde el planteamiento anterior, se encuentra entonces que existe una condición inherente a cualquier sistema, definidas unas leyes constitutivas internas, que permite al mismo llegar al inicio del estado de rotura sin demandar deformación plástica alguna, produciéndose la plastificación simultánea de todas las regiones que hayan llegado a su solicitación de rotura. En cierto modo, se daría un colapso de apariencia frágil. En tal caso, el sistema conserva plenamente hasta el final su capacidad dúctil y tal estado actúa como representante canónico de cualquier otra solución de equilibrio que con idéntico criterio de diseño interno se prevea para tal estructura. En la medida que el diseño se acerque o aleje de la solución canónica, la demanda de ductilidad del sistema para verificar la carga última será menor o mayor. Las soluciones que se aparten en exceso de la solución canónica, no verificarán el estado de rotura previsto por falta de ductilidad: la demanda de deformación plástica de alguna región plastificada estará más allá de la capacidad de la misma, revelándose una carga de rotura por falta de ductilidad menor que la que se preveía por mero equilibrio. Para la determinación de las deformaciones plásticas de las rótulas, se ha tomado un modelo formulado mediante el Método de los Elementos de Contorno, que proporciona un campo continuo de desplazamientos -y, por ende, de deformaciones y de tensiones- incluso en presencia de fisuras en el contorno. Importante cuestión es que se formula la diferencia, nada desdeñable, de la capacidad de rotación plástica de las secciones de hormigón armado en presencia de cortante y en su ausencia. Para las rótulas de fábrica, la diferencia se establece para las condiciones de la excentricidad -asociadas al valor relativo de la compresión-, donde las diferencias entres las regiones plastificadas con esfuerzo normal relativo alto o bajo son reseñables. Por otro lado, si bien de manera un tanto secundaria, las condiciones de servicio también imponen un límite al diseño previo en carga última deseado. La plastificación lleva asociadas deformaciones considerables, sean locales como globales. Tal cosa impone que, en estado de servicio, si la plastificación de alguna región lleva asociadas fisuraciones excesivas para el ambiente del entorno, la solución sea inviable por ello. Asimismo, las deformaciones de las estructuras suponen un límite severo a las posibilidades de su diseño. Especialmente en edificación, las deformaciones activas son un factor crítico a la hora de decidirse por una u otra solución. Por tanto, al límite que se impone por razón de ductilidad, se debe añadir el que se imponga por razón de las condiciones de servicio. Del modo anterior, considerando las condiciones de ductilidad y de servicio en cada caso, se puede tasar cada decisión de diseño con la previsión de cuáles serán las consecuencias en su estado de carga última y de servicio. Es decir, conocidos los límites, podemos acotar cuáles son los diseños a priori que podrán satisfacer seguro las condiciones de ductilidad y de servicio previstas, y en qué medida. Y, en caso de no poderse satisfacer, qué correcciones debieran realizarse sobre el diseño previo para poderlas cumplir. Por último, de las consecuencias que se extraen de lo estudiado, se proponen ciertas líneas de estudio y de experimentación para poder llegar a completar o expandir de manera práctica los resultados obtenidos. ABSTRACT This work deals with a main issue for the ultimate load design in reinforced concrete and masonry structures: the actual possibility that needed yield strains to reach a ultimate state could be reached by yielded regions on the structure that should develop their ultimate capacity to fulfill such a state. Thus, some statically determined design decisions are posed as a start for prescribed ultimate loads to be counteracted, but finding out the determined value of the strains needed to reach the ultimate load state. Therefore, ultimate load theorems are not taken as they are, but a full elasto-plastic formulation point of view is used. As a result, the path the structure must develop in a monotonus increasing loading procedure is not neglected, leading to the fact that non yielded regions will restrict the supposed totally free yield strains under a pure ultimate load theory. In work and energy terms, in the overall account of external forces work and internal strain energy, those domains in the body not reaching their ultimate state are considered. Once thus established the energy balance of the system as its potential, by imposing on it the stationary condition, both displacements and yield strains appear as determined values. Consequently, what proposed is a means for verifying whether the ductility of prescribed designs is enough and the extent to which they are so, for known imposed loads. On the way for the theoretical development of the proposal, some important aspects have been found. Among these, the verification that the conditions for the ultimate state reached under the elastoplastic energy balance fulfills the conditions prescribed for the ultimate load state predicted through the ultimate load theorems, assuring, therefore, that the determinate solution -unicity of the elastic problemcoincides with the unicity ultimate load theorem, determining as well which equilibrium system and which collapse shape are linked to it, being these two last aspects unaffordable by the ultimate load theorems, that make sure only which is the value of the ultimate load leading to collapse. Another aspect is based on the particular case in which the yield surface of the system is flat -i.e. expressed under a linear expression-, turning out infinite the equilibrium possibilities for one determined collapse shape, which is the basis of, apparently, deciding at own free will the yield distribution in beams and arches. From the foresaid approach, is then found that there is an inherent condition in any system, once defined internal constitutive laws, which allows it arrive at the beginning of the ultimate state or collapse without any yield strain demand, reaching the collapse simultaneously for all regions that have come to their ultimate strength. In a certain way, it would appear to be a fragile collapse. In such a case case, the system fully keeps until the end its ductility, and such a state acts as a canonical representative of any other statically determined solution having the same internal design criteria that could be posed for the that same structure. The extent to which a design is closer to or farther from the canonical solution, the ductility demand of the system to verify the ultimate load will be higher or lower. The solutions being far in excess from the canonical solution, will not verify the ultimate state due to lack of ductility: the demand for yield strains of any yielded region will be beyond its capacity, and a shortcoming ultimate load by lack of ductility will appear, lower than the expected by mere equilibrium. For determining the yield strains of plastic hinges, a Boundary Element Method based model has been used, leading to a continuous displacement field -therefore, for strains and stresses as well- even if cracks on the boundary are present. An important aspect is that a remarkable difference is found in the rotation capacity between plastic hinges in reinforced concrete with or without shear. For masonry hinges, such difference appears when dealing with the eccentricity of axial forces -related to their relative value of compression- on the section, where differences between yield regions under high or low relative compressions are remarkable. On the other hand, although in a certain secondary manner, serviceability conditions impose limits to the previous ultimate load stated wanted too. Yield means always big strains and deformations, locally and globally. Such a thing imposes, for serviceability states, that if a yielded region is associated with too large cracking for the environmental conditions, the predicted design will be unsuitable due to this. Furthermore, displacements must be restricted under certain severe limits that restrain the possibilities for a free design. Especially in building structures, active displacements are a critical factor when chosing one or another solution. Then, to the limits due to ductility reasons, other limits dealing with serviceability conditions shoud be added. In the foresaid way, both considering ductility and serviceability conditions in every case, the results for ultimate load and serviceability to which every design decision will lead can be bounded. This means that, once the limits are known, it is possible to bound which a priori designs will fulfill for sure the prescribed ductility and serviceability conditions, and the extent to wich they will be fulfilled, And, in case they were not, which corrections must be performed in the previous design so that it will. Finally, from the consequences derived through what studied, several study and experimental fields are proposed, in order to achieve a completeness and practical expansion of the obtained results.