90 resultados para CONSERVADURISMO
Resumo:
En este trabajo se reconstruye la trayectoria del régimen fraudulento durante el gobierno de Agustín Justo (1932-1938). Las acciones coercitivas desplegadas por los caudillos durante la jornada electoral fueron su rasgo más evidente, pero la instrumentación del fraude tuvo alcances más profundos. A lo largo de esta experiencia, el ejercicio abierto de la coerción sobre el principal partido opositor y el avasallamiento de los derechos de la ciudadanía fueron acompañados por la reorganización del Estado en un sentido que quebró la relación de equilibrio entre los poderes a través de la subordinación del Poder Judicial y el Legislativo a las directivas del elenco gobernante. En este texto se identifican las prácticas y las decisiones desplegadas por los partidos políticos del campo opositor y del oficialista en relación con este proceso.
Resumo:
Este artículo se propone analizar la forma en que se implantó la Justicia de Paz en el interior de la provincia de Buenos Aires entre 1865 y 1910, a través del estudio de los sujetos que desempeñaron esa función y los entramados políticos en los que participaron. El mismo se ha realizado a partir del estudio de un Juzgado en particular, como fue el del partido de Tres Arroyos. Por un lado, se reconstruye el perfil de los sujetos que ejercieron el cargo de Jueces de Paz, con la intención de entender las lógicas que guiaron su designación. Para ello, se indaga en la reconstrucción de sus biografías asociadas a los diversos momentos de ocupación e institucionalización local. Posteriormente se identifican dos modos de nucleamiento que sirvieron de base relacional a los individuos del lugar y que permiten completar la explicación generada desde las biografías individuales: una red de tipo iniciática, como fue la masonería; y una red del conservadurismo local, dirigida por poderosos estancieros del lugar. Por último, se observa si esas redes influyeron en la administración de justicia local. Las fuentes utilizadas son diversos álbumes conmemorativos locales, datos censales, periódicos locales, expedientes correccionales tramitados en la Justicia de Paz de Tres Arroyos, el Libro Copiador de Notas del Juzgado y el Libro de Actas de la Logia Hiram de Tres Arroyos.
Resumo:
Los intelectuales del liberal-conservadurismo argentino fueron protagonistas centrales de diversos fenómenos propios de los años extendidos entre el golpe de Estado de 1955 y el final de la última dictadura, el "Proceso de Reorganización Nacional" (PRN), en 1983. Fue precisamente en torno del último gobierno de facto que estos actores articularon profusas líneas de acción en diversos planos políticos, sociales, culturales y económicos que profundizaron ejes ya presentes en su ideario y accionar desde los años de la "Revolución Libertadora". En este artículo, entonces, y tras presentar una aproximación a los conceptos de intelectual y liberal-conservadurismo, nos concentraremos en la trayectoria y las ideas de Ricardo Zinn. En el primero de los tópicos, partiremos del rol jugado por el nucleamiento del que formó parte, el grupo Azcuénaga, para luego dar cuenta de su biografía. En el segundo, relevaremos su concepción decadentista de la historia argentina, y el rol del PRN como punto de quiebre de tal ciclo y posibilidad de reconstrucción de una democracia de carácter elitista
Resumo:
En este trabajo se reconstruye la trayectoria del régimen fraudulento durante el gobierno de Agustín Justo (1932-1938). Las acciones coercitivas desplegadas por los caudillos durante la jornada electoral fueron su rasgo más evidente, pero la instrumentación del fraude tuvo alcances más profundos. A lo largo de esta experiencia, el ejercicio abierto de la coerción sobre el principal partido opositor y el avasallamiento de los derechos de la ciudadanía fueron acompañados por la reorganización del Estado en un sentido que quebró la relación de equilibrio entre los poderes a través de la subordinación del Poder Judicial y el Legislativo a las directivas del elenco gobernante. En este texto se identifican las prácticas y las decisiones desplegadas por los partidos políticos del campo opositor y del oficialista en relación con este proceso.
Resumo:
Este artículo se propone analizar la forma en que se implantó la Justicia de Paz en el interior de la provincia de Buenos Aires entre 1865 y 1910, a través del estudio de los sujetos que desempeñaron esa función y los entramados políticos en los que participaron. El mismo se ha realizado a partir del estudio de un Juzgado en particular, como fue el del partido de Tres Arroyos. Por un lado, se reconstruye el perfil de los sujetos que ejercieron el cargo de Jueces de Paz, con la intención de entender las lógicas que guiaron su designación. Para ello, se indaga en la reconstrucción de sus biografías asociadas a los diversos momentos de ocupación e institucionalización local. Posteriormente se identifican dos modos de nucleamiento que sirvieron de base relacional a los individuos del lugar y que permiten completar la explicación generada desde las biografías individuales: una red de tipo iniciática, como fue la masonería; y una red del conservadurismo local, dirigida por poderosos estancieros del lugar. Por último, se observa si esas redes influyeron en la administración de justicia local. Las fuentes utilizadas son diversos álbumes conmemorativos locales, datos censales, periódicos locales, expedientes correccionales tramitados en la Justicia de Paz de Tres Arroyos, el Libro Copiador de Notas del Juzgado y el Libro de Actas de la Logia Hiram de Tres Arroyos.
Resumo:
Los intelectuales del liberal-conservadurismo argentino fueron protagonistas centrales de diversos fenómenos propios de los años extendidos entre el golpe de Estado de 1955 y el final de la última dictadura, el "Proceso de Reorganización Nacional" (PRN), en 1983. Fue precisamente en torno del último gobierno de facto que estos actores articularon profusas líneas de acción en diversos planos políticos, sociales, culturales y económicos que profundizaron ejes ya presentes en su ideario y accionar desde los años de la "Revolución Libertadora". En este artículo, entonces, y tras presentar una aproximación a los conceptos de intelectual y liberal-conservadurismo, nos concentraremos en la trayectoria y las ideas de Ricardo Zinn. En el primero de los tópicos, partiremos del rol jugado por el nucleamiento del que formó parte, el grupo Azcuénaga, para luego dar cuenta de su biografía. En el segundo, relevaremos su concepción decadentista de la historia argentina, y el rol del PRN como punto de quiebre de tal ciclo y posibilidad de reconstrucción de una democracia de carácter elitista
Resumo:
El presente trabajo analiza el rol de la intelectualidad liberal-conservadora argentina ante la última dictadura, el "Proceso de Reorganización Nacional" (1976-1983). El libro estudia las posiciones e intervenciones de un conjunto de catorce actores: Alvaro Alsogaray, Alberto Benegas Lynch, Germán Bidart Campos, Horacio García Belsunce, Jorge Luis García Venturini, Mariano Grondona, Juan Segundo Linares Quintana, Mario Justo López, José Alfredo Martínez de Hoz, Víctor Massuh, Jaime Perriaux, Ambrosio Romero Carranza, Carlos Sánchez Sañudo y Ricardo Zinn. La elección de estos nombres implica considerar un abanico amplio de trayectorias que componen figuras intelectuales de diversidad, unidas sin embargo por muchos más vínculos que la adscripción política. La obra se interna en la historia político-intelectual de un espacio ideológico aún poco explorado desde los estudios sobre la intelectualidad, las derechas y la propia dictadura, reponiendo los diversos espacios ocupados por estos hombres, sus proyectos, coincidencias, polémicas y desencantos en un momento clave de la historia argentina.
Resumo:
En este trabajo se reconstruye la trayectoria del régimen fraudulento durante el gobierno de Agustín Justo (1932-1938). Las acciones coercitivas desplegadas por los caudillos durante la jornada electoral fueron su rasgo más evidente, pero la instrumentación del fraude tuvo alcances más profundos. A lo largo de esta experiencia, el ejercicio abierto de la coerción sobre el principal partido opositor y el avasallamiento de los derechos de la ciudadanía fueron acompañados por la reorganización del Estado en un sentido que quebró la relación de equilibrio entre los poderes a través de la subordinación del Poder Judicial y el Legislativo a las directivas del elenco gobernante. En este texto se identifican las prácticas y las decisiones desplegadas por los partidos políticos del campo opositor y del oficialista en relación con este proceso.
Resumo:
Este artículo se propone analizar la forma en que se implantó la Justicia de Paz en el interior de la provincia de Buenos Aires entre 1865 y 1910, a través del estudio de los sujetos que desempeñaron esa función y los entramados políticos en los que participaron. El mismo se ha realizado a partir del estudio de un Juzgado en particular, como fue el del partido de Tres Arroyos. Por un lado, se reconstruye el perfil de los sujetos que ejercieron el cargo de Jueces de Paz, con la intención de entender las lógicas que guiaron su designación. Para ello, se indaga en la reconstrucción de sus biografías asociadas a los diversos momentos de ocupación e institucionalización local. Posteriormente se identifican dos modos de nucleamiento que sirvieron de base relacional a los individuos del lugar y que permiten completar la explicación generada desde las biografías individuales: una red de tipo iniciática, como fue la masonería; y una red del conservadurismo local, dirigida por poderosos estancieros del lugar. Por último, se observa si esas redes influyeron en la administración de justicia local. Las fuentes utilizadas son diversos álbumes conmemorativos locales, datos censales, periódicos locales, expedientes correccionales tramitados en la Justicia de Paz de Tres Arroyos, el Libro Copiador de Notas del Juzgado y el Libro de Actas de la Logia Hiram de Tres Arroyos.
Resumo:
Los intelectuales del liberal-conservadurismo argentino fueron protagonistas centrales de diversos fenómenos propios de los años extendidos entre el golpe de Estado de 1955 y el final de la última dictadura, el "Proceso de Reorganización Nacional" (PRN), en 1983. Fue precisamente en torno del último gobierno de facto que estos actores articularon profusas líneas de acción en diversos planos políticos, sociales, culturales y económicos que profundizaron ejes ya presentes en su ideario y accionar desde los años de la "Revolución Libertadora". En este artículo, entonces, y tras presentar una aproximación a los conceptos de intelectual y liberal-conservadurismo, nos concentraremos en la trayectoria y las ideas de Ricardo Zinn. En el primero de los tópicos, partiremos del rol jugado por el nucleamiento del que formó parte, el grupo Azcuénaga, para luego dar cuenta de su biografía. En el segundo, relevaremos su concepción decadentista de la historia argentina, y el rol del PRN como punto de quiebre de tal ciclo y posibilidad de reconstrucción de una democracia de carácter elitista
Resumo:
En el campo de la ingeniería estructural como en otras ramas, es necesaria la calibración de modelos mediante soporte experimental debido a la complejidad que encierra el fenómeno que se intenta predecir. Las campañas experimentales llevadas a cabo por la comunidad científica a través de los años proporcionan información valiosa que puede ser empleada para la calibración y selección de modelos así como para la consolidación de modelos existentes. En el último caso, las técnicas empleadas para tal finalidad son fundamentalmente distintas a las de la selección de modelos (modelos ajustados con información experimental en común). Los códigos estructurales incluyen modelos de muy variado tipo que han ido consolidándose con la práctica. Con gran frecuencia sucede que tales modelos son diferentes en los referidos códigos aun cuando aborden el mismo objetivo. Tales diferencias son lógicas pues esos modelos no deben entenderse sino como elementos de un sistema más amplio de fiabilidad estructural que incluye todos los modelos utilizados así como el formato de seguridad establecido en cada uno de ellos. En el presente trabajo se realiza una comparación exhaustiva de modelos, empleando diferentes técnicas que permiten identificar patrones de comportamiento de los mismos. La metodología permite no sólo obtener una medida del ajuste y del poder predictivo de los modelos sino también del grado de conservadurismo. Los modelos analizados están relacionados con el fallo de vigas de hormigón reforzadas a flexión con materiales compuestos. La capacidad portante de estos elementos estructurales está frecuentemente condicionada por el despegue del refuerzo, el cual puede tener origen bien el extremo o en la zona de fisura de flexión o flexión-cortante.
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
El bosque tropical de montaña, es considerado zona de mega diversidad y de alto grado de endemismo, por las diferentes zonas ecológicas que presenta. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, sin embargo, aún existe poca investigación en determinar cuáles son las respuestas de los bosques a los cambios ambientales a los que son sometidos. Estos bosques están sufriendo serias amenazas como pérdida de cobertura vegetal y cambios en los ciclos de nutrientes. El trabajo se dividió en cuatro objetivos específicos. i) Caracterización y análisis de patrones altitudinales de la riqueza de especies en el bosque tropical de montaña en el sur del Ecuador; con el fin de conocer cómo varía la diversidad de especies riqueza lo largo de un gradiente altitudinal. ii) Conocer los patrones espaciales del crecimiento en tres remanentes boscosos de un bosque tropical de montaña para determinar cómo la vecindad y la semejanza funcional de ésta influyen en el crecimiento forestal. iii) Conocer los efectos de la fertilización en el crecimiento diamétrico de especies arbóreas, en el bosque tropical de montaña; se analizó cómo reaccionan los árboles a la adición de nutrientes N y P en tres tipos de bosque. iv) Saber la respuesta de la comunidad de árboles a la adición de nutrientes en el bosque montano andino; este objetivo se basó con el supuesto de la deficiencia de tres tipos de nutrientes N, P y Ca, en esta formación boscosa y cómo reaccionan los árboles a la adición de nutrientes. El presente trabajo se llevó a cabo, en el bosque tropical de montaña que se encuentra localizada en la parte adyacente del Parque Nacional Podocarpus (PNP) en la cordillera del Consuelo, forma parte de la cadena oriental de los Andes del sur del Ecuador El trabajo de desarrollo entre los años 2008 y 2014. Para abordar el primer objetivo se establecieron 54 parcelas ubicadas aleatoriamente a lo largo de un gradiente altitudinal (3 niveles de altitud) y se e midieron e identificaron todos los individuos mayores a 5cm de DAP. Se construyó una filogenia con Phylocom y se calcularon diferentes componentes de diversidad para cada parcela ( riqueza taxonómica, diversidad filogenética y edad media de las especies). Ajustando modelos lineares se contrastó el efecto de la altitud sobre dichos componentes y se vio que la riqueza taxonómica y la edad media de las especies aumentaron con la altitud, en sentido contrario a las predicciones de la "hipótesis del conservadurismo tropical" (Tropical Conservatism Hypothesis). Para abordar el segundo objetivo se realizó una remedición de todos los árboles cartografiados en tres parcelas permanentes de alrededor de 5000 m2 cada una, representativas de tres estados diferentes de la sucesión del bosque montano. A partir de las coordenadas y de los datos de registrados, y empleando diferentes funciones de correlación de marca se analizó la distribución espacial del tamaño y del crecimiento relativo y del tamaño. Se constató que mientras que el tamaño de los árboles presentó una correlación espacial negativa, el crecimiento presentó correlación espacial positiva, en ambos casos a distancias cortas. El rango y la magnitud de ambas correlaciones aumentaron al avanzar la sucesión. La distribución espacial del crecimiento mostró una correlación negativa con la distribución espacial de tamaños. Por otro lado, la distribución espacial del crecimiento mostró una correlación negativa para árboles semejantes funcionalmente y positiva cuando se calculó entre árboles con diferente estrategia funcional. En conjunto, los resultados obtenidos señalan un aumento de la importancia de procesos competitivos y una mayor estructuración espacial del crecimiento y de la distribución de tamaños al avanzar la sucesión. Para el tercer y cuarto objetivo se instalaron 52 parcelas distribuidas en bloques donde se fertilizaron dos veces al año durante 6,4 años, se identificaron todos los individuos mayores a 10 cm de DAP, y se midió el crecimiento diamétrico durante estos años Con la adición de nutrientes realizada a los diferentes tipos de bosque en la gradiente altitudinal, encontramos que el efecto sobre el crecimiento diamétrico en la comunidad varia con el rango altitudinal, y el tipo de nutriente, analizando a nivel de las especies, en la mayoría de los casos las especies comunes no tuvieron cambios significativos a la adición de nutrientes. Los resultados de este estudio aportan nuevas evidencias para el entendimiento de la diversidad, estructura y dinámica de los bosques tropicales de montaña. ABSTRACT The montane tropical forest is considered a megadiverse habitat that harbor an enormous degree of endemism. This is mainly due to the high degree of environmental heterogeneity found and the presence of different well defined ecological areas. These forests have received more attention during the last decades, however, the information regarding the responses of these forests to environmental change, is still scarce. These forests are seriously endangered and are suffering serious threats, such as loss of vegetative cover, changes in the nutrient cycles. The work was divided in four specific objectives: i) Characterization and analysis of the species richness altitudinal patterns in the montane tropical forest of south Ecuador. Specifically, how species diversity changes along altitudinal gradients. ii) Exploring the spatial patterns of tree growth in three remnants of a montane tropical forest, and analyze how tree neighborhood and functional similarity among trees influence tree growth. Tropical Conservatism Hypothesis iii) Understanding the effects of fertilization in arboreal species growth (increase in diameter) of the montane tropical forest. Specifically we studied the effects of P and N addition on three different forests across an altitudinal gradient. iv) Know the response of the community of trees to the addition of nutrients in the Andean montane forest; this objective was based on the supposition of deficiency of three types of nutrients: P, N and Ca in this forest all formation and how the trees react to the addition of these nutrients. The present work was carried out in the montane tropical forest located in Bombuscaro, San Francisco and Cajanuma close to Podocarpus National Park (PNP) on Consuelo mountain range (Andean oriental range) at South of Ecuador. Field work was carried out during 2008 and 2014. To address the first objective, we randomly placed 54 plots along an altitudinal gradient. In these plots, every individual larger than 5 cm of DBH was measured and identified. A phylogeny was build with Phylocom and different diversity components (taxonomic richness, phylogenetic diversity and average species age) were computed for each plot. Linear models were used to test the effects of altitude on the diversity components. Our results showed that, contrary to the Tropical Conservatism Hypothesis, both taxonomic richness and average species age increased with altitude. To address our second objective, all mapped trees in three successional permanent plots (around ~5000 m2 each) were re-measured. Using different mark correlation functions, we analyzed the spatial distribution of tree-size and tree relative growth rate. Whereas tree size showed negative spatial correlation at fine spatial scales, relative growth rate showed positive correlation at the same scales. The range and magnitude of those correlations increased along successional stage. The spatial distribution of the relative growth rate was negatively correlated with the spatial distribution of tree sizes. Additionally, we found that the spatial correlation of the relative growth rate was negative for functionally similar trees and positive when computed for functionally different trees. In synthesis, our results point to an increase of competitive processes and strong spatial structure of relative growth rate and tree size along succession. For the third and fourth objectives, 52 plots were placed in a block design and were fertilized twice a year for 6,4 years. In these plots all the individuals with DBH > 10 cm were identified, and the diametrical growth was measured during these years. The nutrient addition at the three different altitude forests, revealed that the effect on the diametrical growth in the community varied with the altitudinal range. When analyzed at species level, the addition of nutrients was no significant in most cases. These results represent new evidences that will improved our understanding of diversity patterns and structure, and the dynamics of tropical montane forests.
Resumo:
Resúmenes de: ZURITA ALDEGUER, Rafael: El Marqués del Bosch y el Conservadurismo alicantino. Patronazgo y clientela en el tránsito del sufragio censitario al sufragio universal. Tesis doctoral leída el 19 de septiembre de 1994. Director: Dr. D. Salvador Forner Muñoz; MIRA JEREZ, M. Mercedes: Revolución Liberal y Milicia nacional en Alicante (1.833-1.840). Memoria de licenciatura leída el 21 de mayo de 1.993. Directora: Dra. Dª Rosa Ana Gutiérrez Lloret; MORENO SECO, Mónica: Secularización de la sociedad a través de la educación: reformadores-católicos. Alicante, 1931-1936. Memoria de licenciatura leída el 7 de julio de 1993. Director: Dr. D. Emilio La Parra López; PARRA VERDU, Pedro J.: La Cazuela. Compañía de Teatro Estable en la sociedad alcoyana (1950-1968). Memoria de licenciatura leída el día 28 de mano de 1994. Director: Dr. D. José M. Santacreu Soler; SAMPER ALCAZAR, Joaquín: Introducción a la Historia de Elda. Memoria de licenciatura leída en día 25 de octubre de 1994. Director: Dr. D. José Miguel Santacreu Soler.
Resumo:
521 p.