653 resultados para ESTIMATORS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fauna saproxílica ha cobrado mucha relevancia en los últimos años. Por una parte, debido a los múltiples papeles que juega en la ecología de los bosques y por otra, por encontrarse muchas especies de ese grupo amenazadas como consecuencia de la intensificación de las actividades forestales. Se supone que los bosques de Europa meridional albergan una fauna saproxílica rica y variada. Sin embargo apenas se han realizado estudios que permitan conocer la composición de las biocenosis saproxílicas, así como el estatus y grado de amenaza a que está sometida cada especie. En esta tesis se han muestreado de forma sistemática las comunidades de coleópteros saproxílicos de cuatro montes del norte de la Comunidad de Madrid, muy diferentes a pesar de su cercanía: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos y Pinar de La Maleza. Para llevar a cabo la recogida de muestras se definió una estación de muestreo tipo, compuesta por cuatro trampas aéreas con cebo oloroso, dos trampas de ventana y una trampa de embudos. En los dos primeros montes mencionados se desplegaron seis estaciones de muestreo, por sólo tres en los otros dos. El primer objetivo de esta tesis fue conocer las especies de coleópteros que constituyen la fauna de los cuatro montes estudiados. Los muestreos sistemáticos reportaron la presencia de un total de 357 especies de coleópteros saproxílicos, siendo el Hayedo de Montejo el bosque con la diversidad más alta, 220 especies; le siguen la Dehesa de Madarcos con 116; el pinar de La Maleza con 115; y la Dehesa de Somosierra con 109, si bien la fauna de este ultimo bosque podría ser mucho más variada dado que la interferencia del ganado con algunos dispositivos de captura hizo que se perdiera parte del material allí recolectado. Se han encontrado nueve especies nuevas para la fauna de la Península Ibérica, y otras muchas desconocidas previamente en el centro peninsular. Un total de 50 especies se encuentran incluidas en la Lista Roja Europea de coleópteros saproxílicos. El segundo objetivo fue estimar la riqueza de fauna de coleópteros saproxílicos en cada bosque. Partiendo de los datos de los respectivo muestreos se calcularon diferentes estimadores, paramétricos y no paramétricos, y se elaboraron las curvas de rarefacción para cada bosque y para el conjunto. El bosque con más biodiversidad ha resultado ser el Hayedo de Montejo, que albergaría entre 254 y 332 especies. En el Pinar de la Maleza se encontrarían de 132 a 223; de 128 a 205 en la Dehesa de Somosierra; y entre 134 y 188 en la Dehesa de Madarcos. Para el conjunto del área se estimó la presencia de entre 411 y 512 especies. El tercer objetivo fue evaluar la influencia de algunos factores como la especie arbórea dominante y la cantidad de madera muerta en la riqueza y diversidad de coleópteros saproxílicos. El estudio se realizó en el Hayedo de Montejo, encontrando una alta correlación positiva entre cantidad y calidad de madera muerta, y diversidad y riqueza de especies de coleópteros saproxílicos. El cuarto objetivo fue evaluar la eficacia y complementariedad de los diferentes tipos de dispositivos de captura empleados en los muestreos. El más eficaz resultó ser la trampa de ventana, seguido por la trampa aérea con cebo oloroso, y finalmente la trampa de embudos. La mayor complementariedad se encontró entre trampas de ventana y aéreas con cebo oloroso. No obstante, si se quiere optimizar la exhaustividad del inventario no se debe prescindir de ninguno de los sistemas. En cualquier caso, puede afirmarse que la efectividad de los tres tipos de dispositivos de captura utilizados en los muestreos fue baja, pues para la gran mayoría de especies presentes se capturó un número de ejemplares realmente bajo. El bajo rendimiento de captura implica un bajo impacto sobre las poblaciones de las especies muestreadas, y esto supone una importante ventaja desde el punto de vista de la conservación. Finalmente, se dejan algunas recomendaciones de manejo a aplicar en cada uno de los montes con el fin de preservar o mejorar los hábitats utilizables por la fauna saproxílica que garanticen el mantenimiento y mejora de dichas comunidades. ABSTRACT The saproxylic fauna has become increasingly important in recent years. It has been due, on the one hand, to the multiple roles they play in the forest ecosystems and, on the other, because of the large proportion of endangered saproxylic species as a result of the intensification of forestry. It is generally assumed that southern Europe forests are home to a rich and diverse saproxylic fauna. However, there are hardly any studies leading to reveal the composition of saproxylic biocenosis, or the stage and extent of the threat each species is suffering. For the purpose of this thesis the communities of saproxylic beetles of four mountain forests in northern Comunidad de Madrid have been systematically sampled: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos and Pinar de La Maleza. They are very different from each other in spite of not being too far apart. In order to carry out sample collection, a standard sampling station was defined as follows: four smelly bait aerial traps, two window traps and one funnel trap. Six sampling stations were deployed in each of the first two forests mentioned above; put only three in each of the other two. The first aim of this thesis was to determine the composition of saproxylic beetles fauna inhabiting each of the four forests studied. Systematic sampling reported the presence of a total of 357 species of saproxylic beetles. Hayedo de Montejo, with 220 species, is the forest with the highest diversity, followed by Dehesa de Madarcos, 116; Pinar de La Maleza, 115, and Dehesa de Somosierra, 109. The fauna of the latter forest, however, could be much more varied, since cattle interference with some capture devices caused the loss of part of the material collected there. Nine new species in the fauna of the Iberian Peninsula were found, and many others previously unknown in the center of the Peninsula. A total of 41 of those species are included in the European Red List of saproxylic beetles. The second aim was to estimate the richness of saproxylic (beetle) fauna in each forest. From the data of the respective sampling, different parametric and nonparametric estimators were calculated, and rarefaction curves for each forest, as well as for the four of them together, were drawn. The most biodiverse forest turned out to be Hayedo de Montejo, which houses between 254 and 332 species. In Pinar de La Maleza, between 132 and 223 species were found; between 128 and 205 in Dehesa de Somosierra, and between 134 and 188 in Dehesa de Madarcos. The estimated diversity of species for the whole area ranges from 411 to 512. The third aim was to evaluate the influence of such factors as the dominant tree species and the amount of dead wood in the richness and diversity of saproxylic beetles. The study was conducted at Hayedo de Montejo, finding a high positive correlation between quantity and quality of coarse woody debris and diversity and richness of saproxylic beetle species. The fourth aim was to evaluate the effectiveness and complementarity of the different sampling methods used in this research work. The most effective proved to be the window trap, followed by the smelly bait aerial trap and the funnel trap, in that order. The greater complementarity was found between window and aerial traps. However, in order to optimize the completeness of the inventory, neither of the systems should be discarded. Nevertheless, the effectiveness of the three types of capture devices used in this piece of research was on the whole rather low, since for the vast majority of species, a significant low number of specimens were captured. Poor trapping performance implies a low impact on the populations of the sampled species, and this is an important advantage in terms of conservation. Finally, this thesis gives some recommendations with regard to the management of each of those four forests, leading to preserve and improve the habitats of the saproxylic wildlife and so ensure the maintenance and growth of their communities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given a pool of motorists, how do we estimate the total intensity of those who had a prespecified number of traffic accidents in the past year? We previously have proposed the u,v method as a solution to estimation problems of this type. In this paper, we prove that the u,v method provides asymptotically efficient estimators in an important special case.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spatial structure of genetic variation within populations, an important interacting influence on evolutionary and ecological processes, can be analyzed in detail by using spatial autocorrelation statistics. This paper characterizes the statistical properties of spatial autocorrelation statistics in this context and develops estimators of gene dispersal based on data on standing patterns of genetic variation. Large numbers of Monte Carlo simulations and a wide variety of sampling strategies are utilized. The results show that spatial autocorrelation statistics are highly predictable and informative. Thus, strong hypothesis tests for neutral theory can be formulated. Most strikingly, robust estimators of gene dispersal can be obtained with practical sample sizes. Details about optimal sampling strategies are also described.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, foi proposta uma nova família de distribuições, a qual permite modelar dados de sobrevivência quando a função de risco tem formas unimodal e U (banheira). Ainda, foram consideradas as modificações das distribuições Weibull, Fréchet, half-normal generalizada, log-logística e lognormal. Tomando dados não-censurados e censurados, considerou-se os estimadores de máxima verossimilhança para o modelo proposto, a fim de verificar a flexibilidade da nova família. Além disso, um modelo de regressão locação-escala foi utilizado para verificar a influência de covariáveis nos tempos de sobrevida. Adicionalmente, conduziu-se uma análise de resíduos baseada nos resíduos deviance modificada. Estudos de simulação, utilizando-se de diferentes atribuições dos parâmetros, porcentagens de censura e tamanhos amostrais, foram conduzidos com o objetivo de verificar a distribuição empírica dos resíduos tipo martingale e deviance modificada. Para detectar observações influentes, foram utilizadas medidas de influência local, que são medidas de diagnóstico baseadas em pequenas perturbações nos dados ou no modelo proposto. Podem ocorrer situações em que a suposição de independência entre os tempos de falha e censura não seja válida. Assim, outro objetivo desse trabalho é considerar o mecanismo de censura informativa, baseado na verossimilhança marginal, considerando a distribuição log-odd log-logística Weibull na modelagem. Por fim, as metodologias descritas são aplicadas a conjuntos de dados reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Context. Nearby late-type stars are excellent targets for seeking young objects in stellar associations and moving groups. The origin of these structures is still misunderstood, and lists of moving group members often change with time and also from author to author. Most members of these groups have been identified by means of kinematic criteria, leading to an important contamination of previous lists by old field stars. Aims. We attempt to identify unambiguous moving group members among a sample of nearby-late type stars by studying their kinematics, lithium abundance, chromospheric activity, and other age-related properties. Methods. High-resolution echelle spectra (R ~ 57 000) of a sample of nearby late-type stars are used to derive accurate radial velocities that are combined with the precise Hipparcos parallaxes and proper motions to compute galactic-spatial velocity components. Stars are classified as possible members of the classical moving groups according to their kinematics. The spectra are also used to study several age-related properties for young late-type stars, i.e., the equivalent width of the lithium Li i 6707.8 Å line or the R'_HK index. Additional information like X-ray fluxes from the ROSAT All-Sky Survey or the presence of debris discs is also taken into account. The different age estimators are compared and the moving group membership of the kinematically selected candidates are discussed. Results. From a total list of 405 nearby stars, 102 have been classified as moving group candidates according to their kinematics. i.e., only ~25.2% of the sample. The number reduces when age estimates are considered, and only 26 moving group candidates (25.5% of the 102 candidates) have ages in agreement with the star having the same age as an MG member.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We consider a robust version of the classical Wald test statistics for testing simple and composite null hypotheses for general parametric models. These test statistics are based on the minimum density power divergence estimators instead of the maximum likelihood estimators. An extensive study of their robustness properties is given though the influence functions as well as the chi-square inflation factors. It is theoretically established that the level and power of these robust tests are stable against outliers, whereas the classical Wald test breaks down. Some numerical examples confirm the validity of the theoretical results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa avalia o impacto do \"Programa de Garantia da Atividade Agropecuária\" para agricultores familiares, conhecido como Proagro Mais. A relevância do trabalho fundamenta-se no considerável tamanho do Programa dentro do contexto das políticas de gestão de risco agrícola no Brasil. Além disso, é a primeira pesquisa desse tipo na literatura científica do país. A amostra é formada por produtores de milho do Estado do Paraná, tendo como linha base o ano de 2003, uma vez que é o ano anterior ao lançamento do Proagro Mais, e o ano de 2005 como ano de impacto. A base de dados utilizada neste estudo foi fornecida pelo Tribunal de Contas da União (TCU), cujas variáveis relevantes incluem características da cultura e dos agricultores familiares, como área financiada, atividades agrícolas complementares, educação e rendimento esperado. Adicionalmente, a partir de outras fontes públicas, foram adicionadas variáveis meteorológicas e regionais para controlar a localização da fazenda. O objetivo da pesquisa é avaliar o impacto do Proagro Mais sobre o montante de crédito por hectare concedido aos beneficiários do Programa. As metodologias usadas incluem o Propensity Score Matching (PSM), a Diferença das Diferenças (DID) e dois estimadores condicionais do DID com PSM usando dados em painel e repeated cross-section. As estimativas econométricas mostram que o Efeito Médio do Tratamento nos Tratados (EMTT) teve sinal negativo na maioria dos modelos revelando que, após o período de perda de rendimento, o grupo de controle teve um valor médio mais elevado de crédito por hectare do que os beneficiários do Proagro Mais. Os resultados sugerem a existência de mecanismos que poderiam complementar ou substituir o Proagro Mais como instrumento de gestão de risco agrícola, mas também podem sugerir que o Programa avaliado não cubra todos os riscos do setor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The subject of this thesis is the real-time implementation of algebraic derivative estimators as observers in nonlinear control of magnetic levitation systems. These estimators are based on operational calculus and implemented as FIR filters, resulting on a feasible real-time implementation. The algebraic method provide a fast, non-asymptotic state estimation. For the magnetic levitation systems, the algebraic estimators may replace the standard asymptotic observers assuring very good performance and robustness. To validate the estimators as observers in closed-loop control, several nonlinear controllers are proposed and implemented in a experimental magnetic levitation prototype. The results show an excellent performance of the proposed control laws together with the algebraic estimators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho propomos o uso de um método Bayesiano para estimar o parâmetro de memória de um processo estocástico com memória longa quando sua função de verossimilhança é intratável ou não está disponível. Esta abordagem fornece uma aproximação para a distribuição a posteriori sobre a memória e outros parâmetros e é baseada numa aplicação simples do método conhecido como computação Bayesiana aproximada (ABC). Alguns estimadores populares para o parâmetro de memória serão revisados e comparados com esta abordagem. O emprego de nossa proposta viabiliza a solução de problemas complexos sob o ponto de vista Bayesiano e, embora aproximativa, possui um desempenho muito satisfatório quando comparada com métodos clássicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We evaluate the use of Generalized Empirical Likelihood (GEL) estimators in portfolios efficiency tests for asset pricing models in the presence of conditional information. Estimators from GEL family presents some optimal statistical properties, such as robustness to misspecification and better properties in finite samples. Unlike GMM, the bias for GEL estimators do not increase as more moment conditions are included, which is expected in conditional efficiency analysis. We found some evidences that estimators from GEL class really performs differently in small samples, where efficiency tests using GEL generate lower estimates compared to tests using the standard approach with GMM. With Monte Carlo experiments we see that GEL has better performance when distortions are present in data, especially under heavy tails and Gaussian shocks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper deals with the determinants of labour out-migration from agriculture across 149 EU regions over the 1990–2008 period. The central aim is to shed light on the role played by payments from the common agricultural policy (CAP) on this important adjustment process. Using static and dynamic panel data estimators, we show that standard neoclassical drivers, like relative income and the relative labour share, represent significant determinants of the intersectoral migration of agricultural labour. Overall, CAP payments contributed significantly to job creation in agriculture, although the magnitude of the economic effect was rather moderate. We also find that pillar I subsidies exerted an effect approximately two times greater than that of pillar II payments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The classical problem of agricultural productivity measurement has regained interest owing to recent price hikes in world food markets. At the same time, there is a new methodological debate on the appropriate identification strategies for addressing endogeneity and collinearity problems in production function estimation. We examine the plausibility of four established and innovative identification strategies for the case of agriculture and test a set of related estimators using farm-level panel datasets from seven EU countries. The newly suggested control function and dynamic panel approaches provide attractive conceptual improvements over the received ‘within’ and duality models. Even so, empirical implementation of the conceptual sophistications built into these estimators does not always live up to expectations. This is particularly true for the dynamic panel estimator, which mostly failed to identify reasonable elasticities for the (quasi-) fixed factors. Less demanding proxy approaches represent an interesting alternative for agricultural applications. In our EU sample, we find very low shadow prices for labour, land and fixed capital across countries. The production elasticity of materials is high, so improving the availability of working capital is the most promising way to increase agricultural productivity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The synthetic control (SC) method has been recently proposed as an alternative to estimate treatment effects in comparative case studies. The SC relies on the assumption that there is a weighted average of the control units that reconstruct the potential outcome of the treated unit in the absence of treatment. If these weights were known, then one could estimate the counterfactual for the treated unit using this weighted average. With these weights, the SC would provide an unbiased estimator for the treatment effect even if selection into treatment is correlated with the unobserved heterogeneity. In this paper, we revisit the SC method in a linear factor model where the SC weights are considered nuisance parameters that are estimated to construct the SC estimator. We show that, when the number of control units is fixed, the estimated SC weights will generally not converge to the weights that reconstruct the factor loadings of the treated unit, even when the number of pre-intervention periods goes to infinity. As a consequence, the SC estimator will be asymptotically biased if treatment assignment is correlated with the unobserved heterogeneity. The asymptotic bias only vanishes when the variance of the idiosyncratic error goes to zero. We suggest a slight modification in the SC method that guarantees that the SC estimator is asymptotically unbiased and has a lower asymptotic variance than the difference-in-differences (DID) estimator when the DID identification assumption is satisfied. If the DID assumption is not satisfied, then both estimators would be asymptotically biased, and it would not be possible to rank them in terms of their asymptotic bias.