897 resultados para Second-order decision analysis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The San Pedro Bridge has six spans and is 750 m (2460 ft) long, 88 m (290 ft) high, 12 m (39 ft) wide, and curved with a radius of 700 m (2300 ft). It was built in 1993 using the cantilever method. Its super - structure is a prestressed concrete box girder with main spans of 150 m (490 ft). In 2008 and 2009, the width of the platform was enlarged to 23 m (75 ft) using five movable sets of scaffolding. The bridge remained open to traffic during construction. The original platform was widened 6 m (20 ft) on each side by connecting a new lightweight concrete cantilever to the original upper slab. These cantilevers were supported by steelstruts. The tie into the upper slab was made with new transverse post-tensioned tendons. The original superstructure was strengthened to resist the additional dead load of the expansion and live loads of the extra traffic. An additional new central web and a composite concrete-steel section were constructed and connected to the concrete box and central web using vertical high-strength post-tensioning bars. Also, external post-tensioning cables were implemented. It was also necessary to strengthen the connection of the original concrete box section to the piers. Detailed calculations were performed to evaluate the load distribution transmitted to the piers by the webs and by the original inclined concrete walls of the box girder. Finally, a detailed second-order-analysis of the complete structure was made to guarantee the resistance of the piers compared with actual loads

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis aborda la formulación, análisis e implementación de métodos numéricos de integración temporal para la solución de sistemas disipativos suaves de dimensión finita o infinita de manera que su estructura continua sea conservada. Se entiende por dichos sistemas aquellos que involucran acoplamiento termo-mecánico y/o efectos disipativos internos modelados por variables internas que siguen leyes continuas, de modo que su evolución es considerada suave. La dinámica de estos sistemas está gobernada por las leyes de la termodinámica y simetrías, las cuales constituyen la estructura que se pretende conservar de forma discreta. Para ello, los sistemas disipativos se describen geométricamente mediante estructuras metriplécticas que identifican claramente las partes reversible e irreversible de la evolución del sistema. Así, usando una de estas estructuras conocida por las siglas (en inglés) de GENERIC, la estructura disipativa de los sistemas es identificada del mismo modo que lo es la Hamiltoniana para sistemas conservativos. Con esto, métodos (EEM) con precisión de segundo orden que conservan la energía, producen entropía y conservan los impulsos lineal y angular son formulados mediante el uso del operador derivada discreta introducido para asegurar la conservación de la Hamiltoniana y las simetrías de sistemas conservativos. Siguiendo estas directrices, se formulan dos tipos de métodos EEM basados en el uso de la temperatura o de la entropía como variable de estado termodinámica, lo que presenta importantes implicaciones que se discuten a lo largo de esta tesis. Entre las cuales cabe destacar que las condiciones de contorno de Dirichlet son naturalmente impuestas con la formulación basada en la temperatura. Por último, se validan dichos métodos y se comprueban sus mejores prestaciones en términos de la estabilidad y robustez en comparación con métodos estándar. This dissertation is concerned with the formulation, analysis and implementation of structure-preserving time integration methods for the solution of the initial(-boundary) value problems describing the dynamics of smooth dissipative systems, either finite- or infinite-dimensional ones. Such systems are understood as those involving thermo-mechanical coupling and/or internal dissipative effects modeled by internal state variables considered to be smooth in the sense that their evolutions follow continuos laws. The dynamics of such systems are ruled by the laws of thermodynamics and symmetries which constitutes the structure meant to be preserved in the numerical setting. For that, dissipative systems are geometrically described by metriplectic structures which clearly identify the reversible and irreversible parts of their dynamical evolution. In particular, the framework known by the acronym GENERIC is used to reveal the systems' dissipative structure in the same way as the Hamiltonian is for conserving systems. Given that, energy-preserving, entropy-producing and momentum-preserving (EEM) second-order accurate methods are formulated using the discrete derivative operator that enabled the formulation of Energy-Momentum methods ensuring the preservation of the Hamiltonian and symmetries for conservative systems. Following these guidelines, two kind of EEM methods are formulated in terms of entropy and temperature as a thermodynamical state variable, involving important implications discussed throughout the dissertation. Remarkably, the formulation in temperature becomes central to accommodate Dirichlet boundary conditions. EEM methods are finally validated and proved to exhibit enhanced numerical stability and robustness properties compared to standard ones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La estructura económica mundial, con centros de producción y consumo descentralizados y el consiguiente aumento en el tráfico de mercancías en todo el mundo, crea considerables problemas y desafíos para el sector del transporte de mercancías. Esta situación ha llevado al transporte marítimo a convertirse en el modo más económico y más adecuado para el transporte de mercancías a nivel global. De este modo, los puertos marítimos se configuran como nodos de importancia capital en la cadena de suministro al servir como enlace entre dos sistemas de transporte, el marítimo y el terrestre. El aumento de la actividad en los puertos marítimos produce tres efectos indeseables: el aumento de la congestión vial, la falta de espacio abierto en las instalaciones portuarias y un impacto ambiental significativo en los puertos marítimos. Los puertos secos nacen para favorecer la utilización de cada modo de transporte en los segmentos en que resultan más competitivos y para mitigar estos problemas moviendo parte de la actividad en el interior. Además, gracias a la implantación de puertos secos es posible discretizar cada uno de los eslabones de la cadena de transporte, permitiendo que los modos más contaminantes y con menor capacidad de transporte tengan itinerarios lo más cortos posible, o bien, sean utilizados únicamente para el transporte de mercancías de alto valor añadido. Así, los puertos secos se presentan como una oportunidad para fortalecer las soluciones intermodales como parte de una cadena integrada de transporte sostenible, potenciando el transporte de mercancías por ferrocarril. Sin embargo, su potencial no es aprovechado al no existir una metodología de planificación de la ubicación de uso sencillo y resultados claros para la toma de decisiones a partir de los criterios ingenieriles definidos por los técnicos. La decisión de dónde ubicar un puerto seco exige un análisis exhaustivo de toda la cadena logística, con el objetivo de transferir el mayor volumen de tráfico posible a los modos más eficientes desde el punto de vista energético, que son menos perjudiciales para el medio ambiente. Sin embargo, esta decisión también debe garantizar la sostenibilidad de la propia localización. Esta Tesis Doctoral, pretende sentar las bases teóricas para el desarrollo de una herramienta de Herramienta de Ayuda a la Toma de Decisiones que permita establecer la localización más adecuada para la construcción de puertos secos. Este primer paso es el desarrollo de una metodología de evaluación de la sostenibilidad y la calidad de las localizaciones de los puertos secos actuales mediante el uso de las siguientes técnicas: Metodología DELPHI, Redes Bayesianas, Análisis Multicriterio y Sistemas de Información Geográfica. Reconociendo que la determinación de la ubicación más adecuada para situar diversos tipos de instalaciones es un importante problema geográfico, con significativas repercusiones medioambientales, sociales, económicos, locacionales y de accesibilidad territorial, se considera un conjunto de 40 variables (agrupadas en 17 factores y estos, a su vez, en 4 criterios) que permiten evaluar la sostenibilidad de las localizaciones. El Análisis Multicriterio se utiliza como forma de establecer una puntuación a través de un algoritmo de scoring. Este algoritmo se alimenta a través de: 1) unas calificaciones para cada variable extraídas de información geográfica analizada con ArcGIS (Criteria Assessment Score); 2) los pesos de los factores obtenidos a través de un cuestionario DELPHI, una técnica caracterizada por su capacidad para alcanzar consensos en un grupo de expertos de muy diferentes especialidades: logística, sostenibilidad, impacto ambiental, planificación de transportes y geografía; y 3) los pesos de las variables, para lo que se emplean las Redes Bayesianas lo que supone una importante aportación metodológica al tratarse de una novedosa aplicación de esta técnica. Los pesos se obtienen aprovechando la capacidad de clasificación de las Redes Bayesianas, en concreto de una red diseñada con un algoritmo de tipo greedy denominado K2 que permite priorizar cada variable en función de las relaciones que se establecen en el conjunto de variables. La principal ventaja del empleo de esta técnica es la reducción de la arbitrariedad en la fijación de los pesos de la cual suelen adolecer las técnicas de Análisis Multicriterio. Como caso de estudio, se evalúa la sostenibilidad de los 10 puertos secos existentes en España. Los resultados del cuestionario DELPHI revelan una mayor importancia a la hora de buscar la localización de un Puerto Seco en los aspectos tenidos en cuenta en las teorías clásicas de localización industrial, principalmente económicos y de accesibilidad. Sin embargo, no deben perderse de vista el resto de factores, cuestión que se pone de manifiesto a través del cuestionario, dado que ninguno de los factores tiene un peso tan pequeño como para ser despreciado. Por el contrario, los resultados de la aplicación de Redes Bayesianas, muestran una mayor importancia de las variables medioambientales, por lo que la sostenibilidad de las localizaciones exige un gran respeto por el medio natural y el medio urbano en que se encuadra. Por último, la aplicación práctica refleja que la localización de los puertos secos existentes en España en la actualidad presenta una calidad modesta, que parece responder más a decisiones políticas que a criterios técnicos. Por ello, deben emprenderse políticas encaminadas a generar un modelo logístico colaborativo-competitivo en el que se evalúen los diferentes factores tenidos en cuenta en esta investigación. The global economic structure, with its decentralized production and the consequent increase in freight traffic all over the world, creates considerable problems and challenges for the freight transport sector. This situation has led shipping to become the most suitable and cheapest way to transport goods. Thus, ports are configured as nodes with critical importance in the logistics supply chain as a link between two transport systems, sea and land. Increase in activity at seaports is producing three undesirable effects: increasing road congestion, lack of open space in port installations and a significant environmental impact on seaports. These adverse effects can be mitigated by moving part of the activity inland. Implementation of dry ports is a possible solution and would also provide an opportunity to strengthen intermodal solutions as part of an integrated and more sustainable transport chain, acting as a link between road and railway networks. In this sense, implementation of dry ports allows the separation of the links of the transport chain, thus facilitating the shortest possible routes for the lowest capacity and most polluting means of transport. Thus, the decision of where to locate a dry port demands a thorough analysis of the whole logistics supply chain, with the objective of transferring the largest volume of goods possible from road to more energy efficient means of transport, like rail or short-sea shipping, that are less harmful to the environment. However, the decision of where to locate a dry port must also ensure the sustainability of the site. Thus, the main goal of this dissertation is to research the variables influencing the sustainability of dry port location and how this sustainability can be evaluated. With this objective, in this research we present a methodology for assessing the sustainability of locations by the use of Multi-Criteria Decision Analysis (MCDA) and Bayesian Networks (BNs). MCDA is used as a way to establish a scoring, whilst BNs were chosen to eliminate arbitrariness in setting the weightings using a technique that allows us to prioritize each variable according to the relationships established in the set of variables. In order to determine the relationships between all the variables involved in the decision, giving us the importance of each factor and variable, we built a K2 BN algorithm. To obtain the scores of each variable, we used a complete cartography analysed by ArcGIS. Recognising that setting the most appropriate location to place a dry port is a geographical multidisciplinary problem, with significant economic, social and environmental implications, we consider 41 variables (grouped into 17 factors) which respond to this need. As a case of study, the sustainability of all of the 10 existing dry ports in Spain has been evaluated. In this set of logistics platforms, we found that the most important variables for achieving sustainability are those related to environmental protection, so the sustainability of the locations requires a great respect for the natural environment and the urban environment in which they are framed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work the thermal analysis of a small satellite orbiting around the Earth has been approached by direct integration of the heat balance equations of a two-node reduced model, obtaining a linearized second order ODE problem, similar in form to the classical case of the forced vibration of a damped system. As the thermal loads (solar radiation, albedo, etc.) are harmonic, the problem is solved by means of Fourier analysis methods. Research on that field can be directly applied to the analysis of thermal problems and the results obtained are satisfactory. Working on the frequency domain streamlines the analysis, simplifies the study and facilitates the experimental testing. The transfer functions are obtained for the two-node case but the study can be extended to an n-node model.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A first-order Lagrangian L ∇ variationally equivalent to the second-order Einstein- Hilbert Lagrangian is introduced. Such a Lagrangian depends on a symmetric linear connection, but the dependence is covariant under diffeomorphisms. The variational problem defined by L ∇ is proved to be regular and its Hamiltonian formulation is studied, including its covariant Hamiltonian attached to ∇ .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Averaged event-related potential (ERP) data recorded from the human scalp reveal electroencephalographic (EEG) activity that is reliably time-locked and phase-locked to experimental events. We report here the application of a method based on information theory that decomposes one or more ERPs recorded at multiple scalp sensors into a sum of components with fixed scalp distributions and sparsely activated, maximally independent time courses. Independent component analysis (ICA) decomposes ERP data into a number of components equal to the number of sensors. The derived components have distinct but not necessarily orthogonal scalp projections. Unlike dipole-fitting methods, the algorithm does not model the locations of their generators in the head. Unlike methods that remove second-order correlations, such as principal component analysis (PCA), ICA also minimizes higher-order dependencies. Applied to detected—and undetected—target ERPs from an auditory vigilance experiment, the algorithm derived ten components that decomposed each of the major response peaks into one or more ICA components with relatively simple scalp distributions. Three of these components were active only when the subject detected the targets, three other components only when the target went undetected, and one in both cases. Three additional components accounted for the steady-state brain response to a 39-Hz background click train. Major features of the decomposition proved robust across sessions and changes in sensor number and placement. This method of ERP analysis can be used to compare responses from multiple stimuli, task conditions, and subject states.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Graphs of second harmonic generation coefficients and electro-optic coefficients (measured by ellipsometry, attenuated total reflection, and two-slit interference modulation) as a function of chromophore number density (chromophore loading) are experimentally observed to exhibit maxima for polymers containing chromophores characterized by large dipole moments and polarizabilities. Modified London theory is used to demonstrated that this behavior can be attributed to the competition of chromophore-applied electric field and chromophore–chromophore electrostatic interactions. The comparison of theoretical and experimental data explains why the promise of exceptional macroscopic second-order optical nonlinearity predicted for organic materials has not been realized and suggests routes for circumventing current limitations to large optical nonlinearity. The results also suggest extensions of measurement and theoretical methods to achieve an improved understanding of intermolecular interactions in condensed phase materials including materials prepared by sequential synthesis and block copolymer methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sulfite oxidase catalyzes the terminal reaction in the degradation of sulfur amino acids. Genetic deficiency of sulfite oxidase results in neurological abnormalities and often leads to death at an early age. The mutation in the sulfite oxidase gene responsible for sulfite oxidase deficiency in a 5-year-old girl was identified by sequence analysis of cDNA obtained from fibroblast mRNA to be a guanine to adenine transition at nucleotide 479 resulting in the amino acid substitution of Arg-160 to Gln. Recombinant protein containing the R160Q mutation was expressed in Escherichia coli, purified, and characterized. The mutant protein contained its full complement of molybdenum and heme, but exhibited 2% of native activity under standard assay conditions. Absorption spectroscopy of the isolated molybdenum domains of native sulfite oxidase and of the R160Q mutant showed significant differences in the 480- and 350-nm absorption bands, suggestive of altered geometry at the molybdenum center. Kinetic analysis of the R160Q protein showed an increase in Km for sulfite combined with a decrease in kcat resulting in a decrease of nearly 1,000-fold in the apparent second-order rate constant kcat/Km. Kinetic parameters for the in vitro generated R160K mutant were found to be intermediate in value between those of the native protein and the R160Q mutant. Native sulfite oxidase was rapidly inactivated by phenylglyoxal, yielding a modified protein with kinetic parameters mimicking those of the R160Q mutant. It is proposed that Arg-160 attracts the anionic substrate sulfite to the binding site near the molybdenum.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

At the level of the cochlear nucleus (CN), the auditory pathway divides into several parallel circuits, each of which provides a different representation of the acoustic signal. Here, the representation of the power spectrum of an acoustic signal is analyzed for two CN principal cells—chopper neurons of the ventral CN and type IV neurons of the dorsal CN. The analysis is based on a weighting function model that relates the discharge rate of a neuron to first- and second-order transformations of the power spectrum. In chopper neurons, the transformation of spectral level into rate is a linear (i.e., first-order) or nearly linear function. This transformation is a predominantly excitatory process involving multiple frequency components, centered in a narrow frequency range about best frequency, that usually are processed independently of each other. In contrast, type IV neurons encode spectral information linearly only near threshold. At higher stimulus levels, these neurons are strongly inhibited by spectral notches, a behavior that cannot be explained by level transformations of first- or second-order. Type IV weighting functions reveal complex excitatory and inhibitory interactions that involve frequency components spanning a wider range than that seen in choppers. These findings suggest that chopper and type IV neurons form parallel pathways of spectral information transmission that are governed by two different mechanisms. Although choppers use a predominantly linear mechanism to transmit tonotopic representations of spectra, type IV neurons use highly nonlinear processes to signal the presence of wide-band spectral features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dentro da prática de verificação e projeto de estruturas metálicas, o cálculo de instabilidade exerce papel importante, já que o aço, por sua elevada resistência, incentiva o uso de colunas significativamente esbeltas. É comum na verificação da instabilidade de pórticos metálicos de andares múltiplos a utilização do conhecido fator K, que define, para a coluna, um comprimento efetivo. Tal fator é usualmente obtido em ábacos construídos a partir de duas hipóteses distintas para o mecanismo de instabilidade: a de flambagem por deslocamento lateral do andar e a de flambagem com esse deslocamento impedido. Essa divisão, e os modelos usualmente utilizados para tratá-la, se mostram incompletos para o caso de pórticos que se distanciem das hipóteses simplificadoras adotadas, e podem induzir a confusões e mal-entendido no uso do fator K. Neste trabalho, serão mostrados modelos alternativos para a determinação desse fator, buscando-se maior generalidade, assim como tentativas de esclarecer algumas possíveis ambiguidades no seu uso; além disso, esses modelos serão aplicados a alguns exemplos particulares. Como complemento ao trabalho, foi criado um programa de computador para determinar deslocamentos e esforços em segunda ordem para esse tipo de edificação, assim como ábacos alternativos. Os resultados obtidos nos exemplos serão contrastados com os fornecidos pelo programa e pelos ábacos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present the first detailed numerical study in three dimensions of a first-order phase transition that remains first order in the presence of quenched disorder (specifically, the ferromagnetic-paramagnetic transition of the site-diluted four states Potts model). A tricritical point, which lies surprisingly near the pure-system limit and is studied by means of finite-size scaling, separates the first-order and second-order parts of the critical line. This investigation has been made possible by a new definition of the disorder average that avoids the diverging-variance probability distributions that plague the standard approach. Entropy, rather than free energy, is the basic object in this approach that exploits a recently introduced microcanonical Monte Carlo method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present a detailed numerical study on the effects of adding quenched impurities to a three dimensional system which in the pure case undergoes a strong first order phase transition (specifically, the ferromagnetic/paramagnetic transition of the site-diluted four states Potts model). We can state that the transition remains first-order in the presence of quenched disorder (a small amount of it) but it turns out to be second order as more impurities are added. A tricritical point, which is studied by means of Finite-Size Scaling, separates the first-order and second-order parts of the critical line. The results were made possible by a new definition of the disorder average that avoids the diverging-variance probability distributions that arise using the standard methodology. We also made use of a recently proposed microcanonical Monte Carlo method in which entropy, instead of free energy, is the basic quantity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.