270 resultados para Conservadores


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se pretende estudiar los quioscos de música en un espacio, (Comunidad de Madrid), y en un tiempo, (desde 1897 año del más antiguo localizado en la Comunidad de Madrid, hasta 2005 por cambio de ciclo político y crisis económica, constando que la actividad constructiva, modificadora y destructiva de los quioscos de música sigue), difundiendo el estudio de los localizados, para que se valoren como objetos arquitectónicos, (de poco tamaño, pero situados y vistos en los lugares más representativos de las localidades. En la metodología de investigación seguida, se usan la inferencia inductiva y deductiva. Se establecen 3 fases en el proceso de investigación por el método inductivo-deductivo: Primera fase. En esta fase se establece la idea del tema de investigación, con el planteamiento del problema, realizándose la pregunta a la que se pretende responder. En este caso la pregunta es: ¿que tipología e invariantes definen a los quioscos de música, como objetos arquitectónicos dentro de los espacios públicos? Se definen luego los objetivos, con la identificación de un objetivo principal como son su tipología e invariantes, y en su caso otros objetivos específicos, como son sus usos y la creación de un modelo. Para ello se utiliza un marco teórico, relativo a los conocimientos que hay sobre la materia, y desde el que se produce la aproximación al problema, y se establece la metodología de trabajo. . Segunda fase, desarrollada en dos etapas: Primera etapa: Se realiza la elección del tipo de trabajo a realizar, es decir, como vamos a conocer la respuesta a la pregunta con un planteamiento cuantitativo, donde se trabaja con objetivos cerrados, y donde se sabe lo que se quiere investigar. En este caso son los objetivos específicos los que completan y marcan el tipo de trabajo. Lo primero que se realiza es un análisis histórico general de los objetos arquitectónicos que sirven de base a las futuras y actuales creaciones de quioscos de música. A continuación se realiza una búsqueda y trabajo de campo, en bibliotecas, páginas web, etc. con obtención de datos “in situ” sobre los quioscos de música, y una relación y descripción de los objetos a estudiar, limitados a la Comunidad de Madrid, desde finales del siglo XIX a principios del XXI, por su suficiente cantidad y representatividad, en relación al conjunto de los quioscos de música del conjunto de las comunidades de España. Segunda etapa: Se realiza el análisis e interpretación de los datos obtenidos, dando respuesta a la pregunta que se había realizado. En ella se vincula el marco teórico con los objetivos, se responde al objetivo principal como son la tipología e invariantes en relación a su composición arquitectónica, a sus elementos formales, a sus sistemas constructivos, a sus materiales, y a alguno de los objetivos específicos, como los usos de los quioscos de música, el diseño de un modelo y la creación de una base de datos de quioscos de música. Tercera fase: Se establecen las conclusiones de todo el trabajo de investigación realizado, y se responde a la posible definición de un modelo según lo planteado en la investigación. Se realiza la difusión/publicación de los conocimientos adquiridos, dando cuenta con rigor de como se ha desarrollado la investigación, ya que es la sociedad la principal receptora de los conocimientos adquiridos en la investigación, y dando la mayor amplitud de información posible, con los anexos y la bibliografía utilizada. En el planteamiento de este trabajo de investigación, hay que partir de la consideración de que los quioscos de música forman parte de los objetos arquitectónicos reconocidos popularmente, como propios de los individuos y de los colectivos que forman las sociedades, ya que forman o han formado parte de las vidas de generaciones de usuarios de los espacios públicos, con una imagen reconocible y que es parte de lo que identifica a cada localidad en la que existe. La situación actual de falta de datos, conocimiento e información sobre los quioscos de música, ha creado la necesidad de realizar un trabajo de investigación, con el objetivo de aportar lo que ahora falta, y crear las bases de futuros trabajos, profundizando en los conocimientos sobre esta materia y/o generando conocimiento en lo relacionado con ella. Uno de los condicionantes es que a pesar del gran número de ellos existente, no hay estudios ni bibliografía adecuada para realizar trabajos relacionados con su construcción, época, estilos, materiales, diseños, tipología etc. excepto en algunas monografías sobre los más representativos de comunidades, ciudades o pueblos concretos, pero que no representan el conjunto de ideales, motivos, épocas diferentes en que se crearon, y con que criterios estilísticos, sociales, de uso etc. se programaron por las distintas administraciones responsables de su construcción. Esta falta de información se suple normalmente con datos que aportan las personas que tienen alguna relación con los quioscos, como los conservadores, jardineros, vecinos, personas mayores, etc., y en algunos casos a través de búsqueda de información en páginas Web, pero con poco rigor y de poca fiabilidad. Se impone por tanto desarrollar una investigación que aporte información sobre la arquitectura de estos objetos, de bibliografía inexistente o insuficiente, consiguiendo que se incorporen en la tipología arquitectónica, adquiriendo la importancia y reconocimiento que se merecen, no solo arquitectónicamente, sino incluso a nivel social, porque en casi todos los casos se añade un componente de hito, de elemento reconocible y nostálgico, con una gran importancia simbólica en las sociedades a lo largo de la historia, dentro de los espacios donde cada uno se ha desarrollado. Para ello se desarrollan a continuación los objetivos tanto generales como específicos, el marco teórico con los conceptos, origen, evolución, estado del arte o estado de la cuestión en el momento actual de los quioscos de música, y la metodología a seguir, con una primera etapa de uso del método inductivo, donde se relacionan y describen los quioscos de música localizados en la Comunidad de Madrid, y una segunda etapa, donde se realiza el análisis y estudio de tipología, invariantes, usos y una propuesta de diseño de un modelo de quiosco de música atendiendo a los resultados de los trabajos realizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es el estudio de la respuesta estructural de los gasoductos sometidas a solicitaciones estáticas y dinámicas, enfocando prioritariamente en la respuesta sísmica. Los gasoductos, como las tuberías en general, se utilizan principalmente para la transportación de fluidos, como agua, gas o petróleo, de ahí la importancia de que el diseño y la estructura se realicen adecuadamente. La tubería debe ser capaz de soportar tanto los efectos de cargas estáticas como las debidas al peso propio o de la presión de la tierra, así como los diferentes tipos de cargas dinámicas ocurridas durante un evento sísmico, como los debidos a las ondas o el desplazamiento de fallas. En la primera parte de la tesis se describen aspectos generales de la tubería y su uso, y se da una breve historia de uso en la industria y las redes de abastecimiento urbano. Aparte de otros aspectos, se discuten las ventajas y desventajas de los diferentes materiales de las tuberías. En la segunda parte de la tesis se desarrollan las ecuaciones de equilibrio de una sección transversal de la tubería bajo cargas estáticas, tales como la presión interna, peso propio, presión de la tierra y las cargas externas. Un número de diferentes combinaciones de carga es analizado por medio de programas codificados como Matlab, los cuales se han desarrollado específicamente para este propósito. Los resultados se comparan con los obtenidos en Ansys utilizando un código de elementos finitos. En la tercera parte se presenta la respuesta dinámica de las tuberías, que abarca los efectos de las ondas y los desplazamientos de fallas. Se presentan las características relevantes del suelo como las velocidades de ondas, así como los métodos para estimar el desplazamiento máximo de las fallas. Un estudio paramétrico se emplea para ilustrar la influencia de estos parámetros en la respuesta estructural de la tubería. Con este fin se han utilizado dos métodos, el Pseudoestático y el Simplificado. En la última parte de la tesis son desarrollados los modelos de elementos finitos que permiten simular adecuadamente el comportamiento no lineal del suelo y la tubería. Los resultados se comparan con los obtenidos por un método simplificado utilizado con frecuencia que fue propuesto por Kennedy en 1977. Estudios paramétricos se presentan con el fin de examinar la validez de las hipótesis del método de Kennedy. La tesis concluye con recomendaciones que indican en qué casos los resultados obtenidos por el método de Kennedy son conservadores y cuando es preferible utilizar modelos de elementos finitos para estimar la respuesta de las tuberías durante los terremotos. ABSTRACT The subject of this thesis is the study of the structural response of pipelines subjected to static and dynamic loads with special attention to seismic design loads. Pipelines, as pipes in general, are used primarily for the transportation of fluids like water, gas or oil, hence the importance of an adequate design and structural behaviour. The pipe must be able to withstand both the effects of static loads like those due to self-weight or earth pressure as well as the different types of dynamic loads during a seismic event like those due to wave passing or fault displacements. In the first part of the thesis general aspects of pipelines and their use are described and a brief history of their usage in industry and for urban supply networks is given. Apart from other aspects, the advantages and disadvantages of different pipe materials are discussed. In the second part of the thesis the equilibrium equations of a transverse section of the pipe under static loads such as internal pressure, self-weight, earth pressure and external loads are developed. A number of different load combinations is analysed by means of programs coded in Matlab that have been specifically developed for this purpose. The results are compared to those obtained with the commercial Finite Element code Ansys. In the third part the dynamic response of pipelines during earthquakes is presented, covering the effects of passing waves and fault displacements. Relevant soil characteristics like wave propagation velocities as well as methods to estimate the maximum fault displacements are presented. A parametric study is employed to illustrate the influences of these parameters on the structural response of the pipe. To this end two methods have been used, the Pseudostatic and the Simplified method. In the last part of the thesis Finite Element models are developed which allow to adequately simulate the nonlinear behaviour of the soil and the pipe. The results are compared to those obtained by a frequently used simplified method which was proposed by Kennedy in 1977. Parametric studies are presented in order to examine the validity of the hypotheses Kennedys’ method is based on. The thesis concludes with recommendations indicating in which cases the results obtained by Kennedy’s method are conservative and when it is preferable to use Finite Element models to estimate the response of pipelines during earthquakes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de esta tesis es presentar una metodología para realizar análisis de la dinámica en pequeña señal y el comportamiento de sistemas de alimentación distribuidos de corriente continua (CC), formados por módulos comerciales. Para ello se hace uso de un método sencillo que indica los márgenes de estabilidad menos conservadores posibles mediante un solo número. Este índice es calculado en cada una de las interfaces que componen el sistema y puede usarse para obtener un índice global que indica la estabilidad del sistema global. De esta manera se posibilita la comparación de sistemas de alimentación distribuidos en términos de robustez. La interconexión de convertidores CC-CC entre ellos y con los filtros EMI necesarios puede originar interacciones no deseadas que dan lugar a la degradación del comportamiento de los convertidores, haciendo el sistema más propenso a inestabilidades. Esta diferencia en el comportamiento se debe a interacciones entre las impedancias de los diversos elementos del sistema. En la mayoría de los casos, los sistemas de alimentación distribuida están formados por módulos comerciales cuya estructura interna es desconocida. Por ello los análisis presentados en esta tesis se basan en medidas de la respuesta en frecuencia del convertidor que pueden realizarse desde los terminales de entrada y salida del mismo. Utilizando las medidas de las impedancias de entrada y salida de los elementos del sistema, se puede construir una función de sensibilidad que proporciona los márgenes de estabilidad de las diferentes interfaces. En esta tesis se utiliza el concepto del valor máximo de la función de sensibilidad (MPC por sus siglas en inglés) para indicar los márgenes de estabilidad como un único número. Una vez que la estabilidad de todas las interfaces del sistema se han evaluado individualmente, los índices obtenidos pueden combinarse para obtener un único número con el que comparar la estabilidad de diferentes sistemas. Igualmente se han analizado las posibles interacciones en la entrada y la salida de los convertidores CC-CC, obteniéndose expresiones analíticas con las que describir en detalle los acoplamientos generados en el sistema. Los estudios analíticos realizados se han validado experimentalmente a lo largo de la tesis. El análisis presentado en esta tesis se culmina con la obtención de un índice que condensa los márgenes de estabilidad menos conservativos. También se demuestra que la robustez del sistema está asegurada si las impedancias utilizadas en la función de sensibilidad se obtienen justamente en la entrada o la salida del subsistema que está siendo analizado. Por otra parte, la tesis presenta un conjunto de parámetros internos asimilados a impedancias, junto con sus expresiones analíticas, que permiten una explicación detallada de las interacciones en el sistema. Dichas expresiones analíticas pueden obtenerse bien mediante las funciones de transferencia analíticas si se conoce la estructura interna, o utilizando medidas en frecuencia o identificación de las mismas a través de la respuesta temporal del convertidor. De acuerdo a las metodologías presentadas en esta tesis se puede predecir la estabilidad y el comportamiento de sistemas compuestos básicamente por convertidores CC-CC y filtros, cuya estructura interna es desconocida. La predicción se basa en un índice que condensa la información de los márgenes de estabilidad y que permite la obtención de un indicador de la estabilidad global de todo el sistema, permitiendo la comparación de la estabilidad de diferentes arquitecturas de sistemas de alimentación distribuidos. ABSTRACT The purpose of this thesis is to present dynamic small-signal stability and performance analysis methodology for dc-distributed systems consisting of commercial power modules. Furthermore, the objective is to introduce simple method to state the least conservative margins for robust stability as a single number. In addition, an index characterizing the overall system stability is obtained, based on which different dc-distributed systems can be compared in terms of robustness. The interconnected systems are prone to impedance-based interactions which might lead to transient-performance degradation or even instability. These systems typically are constructed using commercial converters with unknown internal structure. Therefore, the analysis presented throughout this thesis is based on frequency responses measurable from the input and output terminals. The stability margins are stated utilizing a concept of maximum peak criteria, derived from the behavior of impedance-based sensitivity function that provides a single number to state robust stability. Using this concept, the stability information at every system interface is combined to a meaningful number to state the average robustness of the system. In addition, theoretical formulas are extracted to assess source and load side interactions in order to describe detailed couplings within the system. The presented theoretical analysis methodologies are experimentally validated throughout the thesis. In this thesis, according to the presented analysis, the least conservative stability margins are provided as a single number guaranteeing robustness. It is also shown that within the interconnected system the robust stability is ensured only if the impedance-based minor-loop gain is determined at the very input or output of each subsystem. Moreover, a complete set of impedance-type internal parameters as well as the formulas according to which the interaction sensitivity can be fully explained and analyzed, is provided. The given formulation can be utilized equally either based on measured frequency responses, time-domain identified internal parameters or extracted analytic transfer functions. Based on the analysis methodologies presented in this thesis, the stability and performance of interconnected systems consisting of converters with unknown internal structure, can be predicted. Moreover, the provided concept to assess the least conservative stability margins enables to obtain an index to state the overall robust stability of distributed power architecture and thus to compare different systems in terms of stability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda uma crise vivida pela Igreja Metodista na segunda metade da década de sessenta. Influenciado pelo ambiente político da ditadura militar, o metodismo brasileiro foi campo de um embate entre as alas liberais e conservadoras da denominação. Palco deste embate foi a Faculdade de Teologia e o II Concílio Geral Extraordinário, em 1968, além de uma série de eventos que a ele se seguiram durante os anos de 1969 e 1970. A pesquisa problematiza os fundamentos teológicos e ideológicos que fundamentaram as atitudes das alas conservadoras do metodismo neste conflito, um aspecto pouco considerado pela historiografia sobre o tema. A principal suspeita é a de que as posturas conservadoras decorreram de uma tradição centenária, trazida pelos missionários norte-americanos, quando da implantação do Protestantismo no Brasil. Esta tradição transformou-se numa espécie de Ethos do protestantismo brasileiro, entre o final do século XIX e meados do XX. A postura dos conservadores configura-se, assim, numa reação ao Ethos ameaçado por novos atores do campo religioso e pelas demandas da sociedade em conflito.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho estuda uma crise vivida pela Igreja Metodista na segunda metade da década de sessenta. Influenciado pelo ambiente político da ditadura militar, o metodismo brasileiro foi campo de um embate entre as alas liberais e conservadoras da denominação. Palco deste embate foi a Faculdade de Teologia e o II Concílio Geral Extraordinário, em 1968, além de uma série de eventos que a ele se seguiram durante os anos de 1969 e 1970. A pesquisa problematiza os fundamentos teológicos e ideológicos que fundamentaram as atitudes das alas conservadoras do metodismo neste conflito, um aspecto pouco considerado pela historiografia sobre o tema. A principal suspeita é a de que as posturas conservadoras decorreram de uma tradição centenária, trazida pelos missionários norte-americanos, quando da implantação do Protestantismo no Brasil. Esta tradição transformou-se numa espécie de Ethos do protestantismo brasileiro, entre o final do século XIX e meados do XX. A postura dos conservadores configura-se, assim, numa reação ao Ethos ameaçado por novos atores do campo religioso e pelas demandas da sociedade em conflito.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em diversas ocasiões, os líderes da Igreja Presbiteriana do Brasil revelaram o desejo de uma eqüidistância teológica dos extremos liberais e fundamentalistas. Entretanto, os dis-cursos e as práticas dessa instituição eclesiástica contrastam com esse posicionamento ofici-al. Além disso, essa pretensa posição de eqüidistância dos extremos liberais e fundamenta-listas não denota fronteiras rígidas, mas é um instrumento eficaz de legitimação do poder nos momentos de reconfiguração do campo religioso, principalmente em situações de crises internas. Outrossim, após a redemocratização do Brasil e o conseqüente aumento de plura-lismo religioso, houve a transformação do campo social brasileiro, provocando dificuldades em setores mais conservadores dessa instituição. Atualmente, procura-se revitalizar a pró-pria tradição religiosa diante das ameaças de sua dissolução impostas pelos processos e-mancipatórios modernos e pela influência das concepções seculares e supostamente atéias da vida (como o feminismo, a luta em defesa dos direitos reprodutivos, a união civil entre pessoas do mesmo sexo, o chamado ―movimento de lésbicas, gays, bissexuais, travestis e transgêneros‖ etc.). No campo religioso, os resultados imediatos dessa postura de reação em face das transformações sociais impostas pela modernidade são: (1) misoginia; (2) aquela manifestação de ativismo político-religioso de caráter conservador os protestantes de pen-dor fundamentalista, cuja expansão no Brasil se vem processando há muitas décadas, em ritmo sabidamente veloz, com base em um modelo de proselitismo muito bem-sucedido entre as camadas mais pobres da população brasileira, por todo território nacional.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em diversas ocasiões, os líderes da Igreja Presbiteriana do Brasil revelaram o desejo de uma eqüidistância teológica dos extremos liberais e fundamentalistas. Entretanto, os dis-cursos e as práticas dessa instituição eclesiástica contrastam com esse posicionamento ofici-al. Além disso, essa pretensa posição de eqüidistância dos extremos liberais e fundamenta-listas não denota fronteiras rígidas, mas é um instrumento eficaz de legitimação do poder nos momentos de reconfiguração do campo religioso, principalmente em situações de crises internas. Outrossim, após a redemocratização do Brasil e o conseqüente aumento de plura-lismo religioso, houve a transformação do campo social brasileiro, provocando dificuldades em setores mais conservadores dessa instituição. Atualmente, procura-se revitalizar a pró-pria tradição religiosa diante das ameaças de sua dissolução impostas pelos processos e-mancipatórios modernos e pela influência das concepções seculares e supostamente atéias da vida (como o feminismo, a luta em defesa dos direitos reprodutivos, a união civil entre pessoas do mesmo sexo, o chamado ―movimento de lésbicas, gays, bissexuais, travestis e transgêneros‖ etc.). No campo religioso, os resultados imediatos dessa postura de reação em face das transformações sociais impostas pela modernidade são: (1) misoginia; (2) aquela manifestação de ativismo político-religioso de caráter conservador os protestantes de pen-dor fundamentalista, cuja expansão no Brasil se vem processando há muitas décadas, em ritmo sabidamente veloz, com base em um modelo de proselitismo muito bem-sucedido entre as camadas mais pobres da população brasileira, por todo território nacional.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa um período de crise vivido pelo protestantismo brasileiro (simbolizado aqui pela Igreja Metodista e pela Igreja Presbiteriana do Brasil) durante a época da Ditadura Civil e Militar, focando o olhar mais especificamente no intervalo entre os anos de 1964 e 1974. Influenciadas pelo ambiente político e ideológico da época, essas duas denominações protestantes foram palco de uma disputa entre suas alas conservadoras e progressistas. Como resultado, estabeleceu-se um clima interno de “caça às bruxas”, marcado por atitudes autoritá-rias e de apoio ao regime imposto. Seguindo uma proposta advinda de trabalhos anteriores, a pesquisa procura levantar os fundamentos que embasaram as atitudes das alas conservadoras do protestantismo nesse conflito, um aspecto pouco considerado pela historiografia sobre o tema. A principal suspeita é a de que as posturas conservadoras decorreram do contato do pro-testantismo importado do mundo anglo saxão com a herança cultural patriarcal autoritária e católica presente no Brasil desde seu período fundacional. Essa mescla de elementos teológi-cos importados somada à herança cultural tipicamente brasileira acabou moldando a mentali-dade dos setores conservadores do protestantismo nacional entre o final do século XIX e me-ados do XX, que acabou aflorando quando novos agentes surgiram no cenário religioso duran-te o período do Golpe Civil e Militar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa o papel da religião no conflito entre Israel e Palestina, principalmente no contexto da implantação do Estado de Israel, em 1948. A análise toma como delimitação histórica do conflito o período de 1896 a 1948, quando ocorre a migração das primeiras levas de judeus para os territórios palestinos. A pergunta inicial é sobre como judeus e muçulmanos se relacionavam nos primeiros anos de imigração até a criação do Estado de Israel. O problema principal a ser esclarecido é como a construção cultural ocidental em relação aos palestinos interferiu no conflito, principalmente no que tange à tomada da terra e à construção de um novo país dentro de um já existente, socialmente, religiosamente e culturalmente. Finalmente a pesquisa pergunta pela repercussão do conflito entre israelenses e palestinos no campo religioso protestante, principalmente entre grupos conservadores e fundamentalistas deste ramo do cristianismo. A pesquisa é totalmente bibliográfica e toma como referência as teorias pós-coloniais para debater a história do território, no que se refere aos aspectos religiosos do conflito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este artículo apunta a visualizar los homenajes efectuados en memoria de Eva Perón como instancias de participación en la Resistencia peronista (1955-1963), a partir del análisis de fuentes periodísticas, informes de inteligencia y entrevistas. La observación de este tipo de prácticas nos ha permitido analizar cómo se realizó el proceso de construcción de memoria durante esta etapa y sus anclajes materiales, el carácter religioso que impregnó a dichas prácticas, y cómo la imagen de Eva Perón se constituyó en una instancia de legitimación para la participación política femenina, aunque fueron atributos conservadores los que habilitaron dicha participación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El nacimiento de la Arqueología tiene una estrecha relación con el auge de los nacionalismos en toda Europa. En el estado español, tanto el nacionalismo centralista como los nacionalismos o regionalismos periféricos han utilizado referentes del pasado –a veces coincidentes– como sustento simbólico de sus narrativas. Es el caso de los celtas, pueblo mítico que ha servido tanto para afianzar la idea unitaria de España, como para refrendar la singularidad nacional/regional de territorios como Asturias y León. El papel de los arqueólogos en estos dos casos es analizado en este trabajo, pues supone una vía crucial para la reflexión historiográfica. Así, las narrativas académicas generadas en este ámbito adolecían habitualmente de una falta de crítica, que subordinaba el pasado prerromano a determinadas agendas políticas contemporáneas. La predominancia de la Historia Antigua o de visiones esencialistas, androcéntricas y socialmente conservadoras en los discursos arqueológicos caracterizan los estudios tradicionales sobre los grupos prerromanos de Asturias y León. Tras la consolidación del Estado de las Autonomías, el nacionalismo y el regionalismo se extendieron a amplias capas de la sociedad acompañados de discursos históricos que prescindieron de la legitimación de la Academia. Paradójicamente, estas narrativas reproducen discursos conservadores que tradicionalmente dominaban el discurso arqueológico. Ante esta situación, ¿nos corresponde a los arqueólogos asumir una posición multivocal liberal o deberíamos, en cambio, emprender acciones sociopolíticas críticas que inicien una autocrítica disciplinar y persigan transformar los marcos teórico-interpretativos dominantes?.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación trata de responder la siguiente pregunta: ¿hay un proceso de confluencia ideológica a lo largo de los siglos XIX y XX de los liberales y conservadores mexicanos en un proyecto educativo nacionalista? Para responderla, el trabajo analiza la disputa ideológica de tipo histórico en torno a la educación entre la élite liberal y la conservadora católica (incluida la jerarquía católica) mexicanas, con referencia a las relaciones Iglesia-Estado y al proceso de construcción de la nación. Dicho en otros términos, este trabajo analiza la construcción de la nación en México a través de la educación durante el periodo 1857-1982. En este estudio se considera que el origen de la nación mexicana es resultado de un proceso de construcción orquestado por las élites. El proceso se inició formalmente con la independencia de España en 1821. Desde entonces, las élites consideraron a la educación como una herramienta fundamental para trasmitir sus valores y construir los emblemas representativos de la nación. Las élites políticas percibieron que el monopolio de la educación les dotaba de ventajas sobre sus competidores, ya que proporcionaba diversos recursos institucionales para el ejercicio del poder y su conservación. En la disputa por el control de la educación, la Iglesia Católica (y el conservadurismo católico) proponía que la orientación moral del Estado, así como los valores de la democracia y la participación política, deberían sustentarse sobre una educación integral que incluyera la religión católica como parte de la regeneración moral de los individuos. Por su parte, la élite liberal dedicó el quehacer público a la secularización de la educación y a crear una sociedad racional que se liberara del oscurantismo y del fanatismo religioso. El conflicto se agudizó cuando la Iglesia Católica perdió el monopolio educativo con las Leyes de Reforma (1855-1863); entonces comenzó una fuerte competencia con el Estado (el Gobierno) por el control ideológico y político de la sociedad. Por su parte, la élite política liberal impidió el avance del conservadurismo católico y se hizo con los recursos institucionales (formales e informales) para conservar y legitimar su control del poder...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.