845 resultados para Monte, Guido Ubaldo, marchese del, 1545-1607.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se persigue con este proyecto mejorar ciertos aspectos del municipio y a su vez contribuir a la mejora de otros más generales: -Identificar, localizar y tipificar las masas de rebollar del término municipal Nava del Barco para su mejor comprensión y gestión. -Diagnosticar la situación de cada masa y proponer a cada tipo unas directrices de actuación. -Diseñar un resalveo de conversión a monte alto en una de las masas que precisen de dicho tratamiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta Tesis Doctoral ha sido la revisión de la taxonomía infraespecífica de la especie Atriplex halimus L., la delimitación del área geográfica que ocupan sus taxones y su caracterización morfológica. En base a las citas bibliográficas y material de herbario consultado se ha trazado un mapa de distribución de la especie, que delimita su distribución como planta espontánea a la Cuenca Mediterránea, desierto de Siria, Macizo de Hoggar y Sahara Occidental. El resto debe considerarse poblaciones naturalizadas o cultivadas. La taxonomía actual, basada en relaciones filogenéticas, nos indica que lo adecuado es separar las poblaciones de A. halimus en dos clados que se caracterizan por tener diferente nivel de ploidía. Para definir el área de distribución de los clados diploide y tetraploide se ha determinado la ploidía de 19 poblaciones en el espacio comprendido entre las dos áreas de distribución conocidas. Y como resultado el área de distribución de ambos clados puede definirse trazando una recta que une el estrecho de Gibraltar con Estambul, las poblaciones al sur de esta línea son tetraploides a las que habría que añadir las poblaciones del este y sur de la isla de Cerdeña que son también tetraploides. Se han determinado cuales son los parámetros morfológicos que permiten caracterizar ambos clados, para lo cual se han estudiado 52 poblaciones que comprenden toda el área de distribución de la especie. Se han evaluado caracteres cualitativos y cuantitativos de valvas fructíferas, plántulas cultivadas en cámara y arbustos de 2 a 4 años situados en la misma parcela. El único elemento fiable para determinar la pertenencia al clado diploide o tetraploide es la medición del nivel de ploidía. Ninguno de los caracteres morfológicos estudiados es plenamente fiable para determinar si los individuos de una población pertenecen al clado diploide o tetraploide a pesar de realizarse las mediciones sobre poblaciones cultivadas en igualdad de condiciones de suelo y clima, y en condiciones muy favorables para la expresión de caracteres cualitativos y cuantitativos. Los caracteres cualitativos observados que guardan una mayor correlación con el nivel de ploidía son: la base de las hojas de las plántulas, el porte del arbusto, la ramificación, el ángulo de inserción de las ramas y la longitud de la inflorescencia. Respecto a los datos cuantitativos los más relevantes han sido, la longitud de los cotiledones y la longitud del limbo de la 1ª, 3ª o 5ª hoja de la plántula o la razón entre este valor y la anchura del limbo. ABSTRACT The aim of this Thesis has been in the revision of the infraspecies taxa of Atriplex halimus L., the delimitation of their natural growing area and their morphological characterization. Using references to relevant literature and consultation of herbariums, it has been possible to map the distribution of the species as spontaneous plant in the Mediterranean Basin, Desert of Syria, Massif of Hoggar and Western Sahara. The remaining populations must be considered as naturalized or cultivated. The current taxonomy, based on phylogenetic relationships, indicates that A.halimus should be divided in two clades. These clades are characterized by their different ploidy level. Samples of nineteen populations collected from localizations between the defined distribution area of both clades have been characterized for their ploidy level. As a result, it can be seen that the line of clade separation can be trazed from Istambul tothe Strait of Gibraltar, where the populations north to this line are classified as diploid and those south of the line are clsassified as tetraploid. The only exception of this rule is in Sardinia, hwre populations to the West and South of the Island are also classified as tetraploid. The morphological parameters, which include the characterization of both clades, have been defined, and the study of fifty-two populations from the entire distribution area according to these parameters have been analysed. The qualitative and quantitative characteristics of the fruit valves have been evaluated, with seedlings grown in a culture chamber, and 2-4 years old shrubs grown in the same orchard. None of the morphological characters under study are fully reliable to determine whether individuals in a population belong to clade diploid or tetraploid. This is despite measurements being made on populations grown under the same conditions of soil and climate, and in very favorable conditions for the expression of qualitative and quantitative traits. The qualitative characteristics that show a higher correlation with the ploidy level are: the base of the leaves of the seedlings, the bearing bush, the branch arrangement, the angle of insertion of the branches and the inflorescence length. With regards to the quantitative data the most relevant were the length of the cotyledons and the length of the blade of the 1st, 3rd or 5th leaves of the seedling, and the ratio of any of this values and the leaf blade width. The only reliable way to determine the diploid or tetraploid clade membership is the measurement of ploidy level.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fase de establecimiento del regenerado es un proceso crítico para el desarrollo posterior de la masa tanto por las elevadas tasas de mortalidad que habitualmente lleva asociadas, como por proporcionar el material de partida del que van a disponer las fases subsiguientes. Las restricciones a la germinación y establecimiento de la regeneración del pino silvestre varían enormemente entre las distintas regiones de su extensa área de distribución geográfica. La región Mediterránea constituye un hábitat marginal de la especie en el que las condiciones ecológicas son muy diferentes a las del grueso de su área de distribución. Frente a otras limitaciones (frío, luz, encharcamiento…), en el entorno mediterráneo la tasa de mortalidad parece estar asociada a las condiciones micrometeorológicas del período estival - particularmente, a la sequía -, así como a la presencia excesiva de ganado o ungulados silvestres. No obstante, la mayoría de la información disponible sobre el proceso de regeneración de la especie procede del centro y norte de Europa, por lo que no es de aplicación directa en nuestra región, en la que los estudios de este tipo son mucho más escasos. El presente trabajo pretende contribuir a paliar esta relativa escasez a través del estudio del proceso de regeneración natural en el monte “Cabeza de Hierro”, masa irregular por bosquetes de pino silvestre, paradigma de gestión sostenible y uso múltiple. En este entorno, se pretende caracterizar y cuantificar tanto el proceso de germinación y supervivencia de la especie como la influencia de la cobertura vegetal (estratos arbóreo, arbustivo y herbáceo, y capa de restos vegetales) en su desarrollo. Se persigue así mismo analizar el efecto de la compactación del suelo sobre la persistencia de la masa y contrastar y comparar la eficacia de dos tratamientos edáficos de ayuda a la regeneración: escarificado y decapado+acaballonado. Con este fin se han planteado dos diseños experimentales consistentes en sendas redes de muestreo (Red de Muestreo I o RM I y Red de Muestreo II o RM II) integradas, respectivamente, por 192 y 24 parcelas de 1,5x1,5 m ubicadas bajo distintas condiciones de cobertura vegetal. Sobre una parte de estas parcelas (1/4 en la Red de Muestreo I; 1/2 en la Red de Muestreo II) se han aplicado tratamientos de ayuda a la regeneración (RM I: escarificado; RM II: decapado+acaballonado) y, tras llevar a cabo siembras controladas al inicio del período vegetativo, se han practicado controles periódicos de germinación y supervivencia durante uno (RM II) y tres años consecutivos (RM I). Se han realizado así mismo mediciones complementarias de variables micrometeorológicas, espesura, recubrimiento superficial del suelo y compactación. Los resultados obtenidos a partir de las experiencias realizadas en el monte objeto de estudio permiten concluir que, en relación con el proceso de regeneración natural de la especie en este tipo masa y entorno: 1) la regeneración del pino silvestre durante el primer período vegetativo presenta una tasa de éxito muy baja (1,4% de los sembrados), provocada por una elevada mortalidad durante el primer período estival (>92%) subsiguiente a una germinación de en torno al 17% de las semillas viables que llegan al suelo; 2) la mortalidad sigue siendo elevada hasta el tercer período vegetativo, en que comienza a reducirse significativamente hasta alcanzar el 45%; 3) la cobertura vegetal influye significativamente tanto en el proceso de germinación como en el de supervivencia, aunque ambos procesos presentan una baja correlación linear que pone de manifiesto que los lugares idóneos para la germinación no siempre son los más adecuados para la supervivencia; 4) la escarificación del suelo mejora las tasas iniciales de germinación y supervivencia, pero empeora la tasa de supervivencia posterior (años 2 y 3), por lo que su efecto a medio plazo no resulta significativo; 5) el decapado+acaballonado presenta mejores resultados que el escarificado durante el primer verano, aunque sólo resulta efectivo en condiciones intermedias de espesura de masa; 6) la compactación edáfica no resulta limitante para la productividad ni la persistencia de la masa considerada. ABSTRACT Seedling establishment is critical for later stand progress because it involves high mortality rates and the surviving saplings constitute the starting material for all the subsequent stages. Restrictions for Scots pine germination and seedling survival may vary greatly across its geographical range, as it is widely distributed within north latitudes. Mediterranean region is a marginal sector within this species range and its ecological conditions differ greatly from those of the bulk of the area. Mortality rates in Mediterranean environments seem to be related to summer weather (mainly drought) and high livestock stocking rather than to cold, light or flooding. Most available information on scots pine regeneration process comes from north European experiences and is not transferable to Spanish forests, whereas studies on Mediterranean region are much scarcer. The present work aims at broadening Scots pine regeneration knowledge within Mediterranean region by analyzing its establishment process in the “Cabeza de Hierro” forest: a Scots pine uneven-aged forest at blocklevel scale, exemplary managed for multi-services purpose. Germination and surviving processes are to be characterized and quantified as to vegetation cover both in trees, shrubs, grass and litter strata. Soil compaction effects on forest sustainability are also assessed and the efficacy of some site preparation techniques on regeneration success is tested and compared (scarification vs. scalping+mounding). Two sampling networks comprising respectively 198 (SN I) and 24 plots (SN II) of 1.5x1.5m have been established over a wide range of vegetal cover conditions within the forest. Soil preparation techniques have been applied only to some of the sampling points; namely, 1 out of 4 plots have been scarified within Sampling Network I , while 1 out of 2 plots have been object of scalping & mounding within Sampling Network II. After localized sowing prior to growing season, germination and surviving have been periodically sampled for either one (SN II) or three years (SN I). Supplementary measures for micrometeorological variables, stand density, ground vegetal cover and compaction have also been carried out. Results obtained for the studied forest lead to the following insights regarding Scots pine natural regeneration process within this sort of forest and environment: 1) seedling establishment success rate is quite low (0,15% of sowing seeds), due to high mortality during the first summer (>92%), following a prior 17% rate of germination over viable seeds reaching the soil; 2) mortality rate remains high until the third year after emergence and then decreases to the 50% of surviving; 3) although vegetal cover significantly affects both seedling germination and survival, lineal correlation between those two processes is rather low, which may indicate that places fit for emergence are not necessarily suitable for summer surviving; 4) soil scarification improves both germination and survival during the first growing season, but it is associated to higher mortality rates during the next two years; hence it has no significant medium term effect; 5) scalping & mounding treatment is more effective than scarification concerning establishment improving during the first summer; but its effects are only significant under intermediate stand density levels; 6) soil compaction does not restrict either forest productivity or persistence, despite the area’s long history of high livestock stocking rates and mechanized logging.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Clusterina (CLU) è una proteina ubiquitaria, presente nella maggior parte dei fluidi corporei e implicata in svariati processi fisiologici. Dalla sua scoperta fino ad oggi, CLU è risultata essere una proteina enigmatica, la cui funzione non è ancora stata compresa appieno. Il gene codifica per 3 varianti trascrizionali identificate nel database NCBI con i codici: NM_001831 (CLU 1 in questo lavoro di tesi), NR_038335 (CLU 2 in questo lavoro di tesi) e NR_045494 (CLU 3 in questo lavoro di tesi). Tutte le varianti sono trascritte come pre-mRNA contenenti 9 esoni e 8 introni e si differenziano per l’esone 1, la cui sequenza è unica e caratteristica di ogni variante. Sebbene in NCBI sia annotato che le varianti CLU 2 e CLU 3 non sono codificanti, tramite analisi bioinformatica è stato predetto che da tutti e tre i trascritti possono generarsi proteine di differente lunghezza e localizzazione cellulare. Tra tutte le forme proteiche ipotizzate, l’unica a essere stata isolata e sequenziata è quella tradotta dall’AUG presente sull’esone 2 che dà origine a una proteina di 449 aminoacidi. Il processo di maturazione prevede la formazione di un precursore citoplasmatico (psCLU) che subisce modificazioni post-traduzionali tra cui formazione di ponti disolfuro, glicosilazioni, taglio in due catene denominate β e α prima di essere secreta come eterodimero βα (sCLU) nell’ambiente extracellulare, dove esercita la sua funzione di chaperone ATP-indipendente. Oltre alla forma extracellulare, è possibile osservare una forma intracellulare con localizzazione citosolica la cui funzione non è stata ancora completamente chiarita. Questo lavoro di tesi si è prefissato lo scopo di incrementare le conoscenze in merito ai trascritti CLU 1 e CLU 2 e alla loro regolazione, oltre ad approfondire il ruolo della forma citosolica della proteina in relazione al signaling di NF-kB che svolge un ruolo importante nel processo di sviluppo e metastatizzazione del tumore. Nella prima parte, uno screening di differenti linee cellulari, quali cellule epiteliali di prostata e di mammella, sia normali sia tumorali, fibroblasti di origine polmonare e linfociti di tumore non-Hodgkin, ha permesso di caratterizzare i trascritti CLU 1 e CLU 2. Dall’analisi è emerso che la sequenza di CLU 1 è più corta al 5’ rispetto a quella depositata in NCBI con l’identificativo NM_001831 e il primo AUG disponibile per l’inizio della traduzione è localizzato sull’esone 2. È stato dimostrato che CLU 2, al contrario di quanto riportato in NCBI, è tradotto in proteina a partire dall’AUG presente sull’esone 2, allo stesso modo in cui viene tradotto CLU 1. Inoltre, è stato osservato che i livelli d’espressione dei trascritti variano notevolmente tra le diverse linee cellulari e nelle cellule epiteliali CLU 2 è espressa sempre a bassi livelli. In queste cellule, l’espressione di CLU 2 è silenziata per via epigenetica e la somministrazione di farmaci capaci di rendere la cromatina più accessibile, quali tricostatina A e 5-aza-2’-deossicitidina, è in grado di incrementarne l’espressione. Nella seconda parte, un’analisi bioinformatica seguita da saggi di attività in vitro in cellule epiteliali prostatiche trattate con farmaci epigenetici, hanno permesso di identificare, per la prima volta in uomo, una seconda regione regolatrice denominata P2, capace di controllare l’espressione di CLU 2. Rispetto a P1, il classico promotore di CLU già ampiamente studiato da altri gruppi di ricerca, P2 è un promotore debole, privo di TATA box, che nelle cellule epiteliali prostatiche è silente in condizioni basali e la cui attività incrementa in seguito alla somministrazione di farmaci epigenetici capaci di alterare le modificazioni post-traduzionali delle code istoniche nell’intorno di P2. Ne consegue un rilassamento della cromatina e un successivo aumento di trascrizione di CLU 2. La presenza di un’isola CpG differentemente metilata nell’intorno di P1 spiegherebbe, almeno in parte, i differenti livelli di espressione di CLU che si osservano tra le diverse linee cellulari. Nella terza parte, l’analisi del pathway di NF-kB in un modello sperimentale di tumore prostatico in cui CLU è stata silenziata o sovraespressa, ha permesso di capire come la forma citosolica di CLU abbia un ruolo inibitorio nei confronti dell’attività del fattore trascrizionale NF-kB. CLU inibisce la fosforilazione e l’attivazione di p65, il membro più rappresentativo della famiglia NF-kB, con conseguente riduzione della trascrizione di alcuni geni da esso regolati e coinvolti nel rimodellamento della matrice extracellulare, quali l’urochinasi attivatrice del plasminogeno, la catepsina B e la metallo proteinasi 9. È stato dimostrato che tale inibizione non è dovuta a un’interazione fisica diretta tra CLU e p65, per cui si suppone che CLU interagisca con uno dei componenti più a monte della via di segnalazione responsabile della fosforilazione ed attivazione di p65.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tra il 2005 e il 2013 la disciplina italiana sulle crisi d’impresa è stata oggetto di varie riforme, che hanno cercato di rafforzare il concordato preventivo, in particolare nella sua funzione di istituto atto a favorire la continuità di aziende in crisi non irreversibile. Anche tenendo conto degli effetti della crisi economica, tali riforme hanno conseguito l’obiettivo di allargare il ricorso al concordato, in particolare a seguito dell’introduzione di quello “in bianco”, che consente di posticipare la presentazione del piano di risanamento. Le riforme hanno anche contribuito a un lieve miglioramento della continuità aziendale. Ciò nonostante, solo una quota limitata di aziende (circa il 4,5 per cento) sopravvive dopo il concordato, la cui funzione principale è rimasta quella di fornire uno strumento liquidatorio di tipo negoziale, alternativo al fallimento che vede un maggior ruolo degli organi giudiziari. Il ricorso al concordato risulta correlato, oltre che con caratteristiche strutturali dell’impresa (un maggior peso delle immobilizzazioni materiali) e delle relazioni creditizie (un minore peso dei crediti dotati di garanzie reali), anche con la durata temporale delle procedure fallimentari nel tribunale di riferimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se ha creído durante mucho tiempo que el quebrantahuesos acomete a los hombres con la intención de matarlos y devorarlos. Esta historia fabulosa, originada en tierras suizas durante el siglo XVIII, contrasta con la mirada inofensiva, o al menos de indiferencia, con la que se le ha caracterizado en la cultura mediterránea. No obstante, la fuerza del mito del Gypaetus barbatus, como un ave dañina y perjudicial para el hombre, derivó en su desprotección como especie hasta prácticamente nuestros días. En este artículo damos a conocer, a rebufo de la mala fama del quebrantón como depredador humano, un antiguo documento en el que se narran los estragos en seres humanos y en ganado atribuidos a un supuesto quebrantahuesos y la muerte, de esta peligrosa bestia, acaecida en el año 1797 en la localidad alicantina de Benimantell.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A finales del siglo pasado y principios del siglo XXI el número de instituciones culturales se ha incrementado expresivamente. Países como Japón, Reino Unido y también Brasil son sorprendidos con nuevos museos a un ritmo singular. Este texto pretende ampliar la comprensión sobre el creciente número de establecimientos culturales, los nuevos formatos de los museos y las innovaciones en los espacios museísticos por medio de la perspectiva de los visitantes. Encuestas realizadas en el Instituto Inhotim, en Brasil, demuestran que la existencia de museos y símiles en nuevos formatos está en conformidad con las expectativas de una sociedad contemporánea donde las personas buscan vivir nuevas experiencias, valoran las sensaciones y privilegian el tiempo presente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La provincia de Córdoba conserva sólo el 3,6% de la superficie original de bosques (594.000 ha), distribuídos en fragmentos que son sumamente valiosos porque contienen la diversidad de flora y fauna remanente y porque constituyen barreras frente a la acción erosiva del agua y los vientos. Por su estructura, degradada y enmarañada, el productor rural generalmente visualiza estos fragmentos como una molestia ya que le restan superficie apta para el cultivo y resultan poco aprovechables para otros fines, p.ej.: turístico, recreativo, productivo, etc. Sin embargo, bajo pautas de manejo adecuadas estos bosquecillos podrían rehabilitarse para su aprovechamiento en sistemas de uso múltiple (productos y servicios forestales madereros y no madereros). Para ello, es necesario identificar a simple vista las especies principales que componen el bosque, en sus estratos arbóreo, arbustivo y herbáceo, así como reconocer sus principales características funcionales, su forma de propagación y su valor de uso actual o potencial. La bibliografía disponible para la provincia de Córdoba, descriptiva de los aspectos morfológicos, funcionales y utilitarios de las especies que habitan los bosques nativos, es escasa y está fragmentada y dispersa, lo que constituye una dificultad para su estudio y manejo. Esta dificultad se visualiza en todos los cursos, seminarios y talleres que dicta nuestro equipo de trabajo y es planteada por distintas instituciones educativas y de extensión (como la Universidad Nacional de Villa María, la Tecnicatura en Jardinería y Floricultura, la Biblioteca de la FCA, UNC, el Nodo Regional Monte y Espinal) así como organizaciones de la sociedad civil, municipios y empresarios urbanos y rurales (como la ONG Ecosistemas Argentinos y el Vivero La Lomada). La presente propuesta busca dar respuesta a la demanda de todas estas instituciones receptoras, brindando un material descriptivo, agradable visualmente y didáctico, con información confiable, resultante de sucesivos proyectos de investigación en conservación, domesticación y manejo de las especies de nuestros bosques nativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’antibiotico resistenza negli enterobatteri produttori di carbapenemasi (CPE) rappresenta una problematica emergente in sanità pubblica, dato che le opzioni alternative per il trattamento di pazienti infetti sono limitate. L’andamento epidemiologico di CPE a livello globale appare ad oggi molto variegato con differenze significative tra paesi. In Italia la diffusione di K. pneumoniae produttrice di KPC è endemica ed è stimata essere un terzo (32,9%) delle infezioni invasive (sangue e liquor) da K. pneumoniae. Pertanto, diventa indispensabile implementare gli studi di farmaco-resistenza per valutare e ridurre il potenziale di crescita di tali microrganismi. Questo studio presenta come fine la valutazione del Beta Carba test, metodo cromogeno, per il rapido rilevamento di CPE in confronto con il metodo standard di riferimento. Lo studio è stato svolto presso l’U.O. Microbiologia AUSL della Romagna ed è di natura retrospettiva, di tipo esclusivamente qualitativo. Sono stati analizzati 412 campioni completamente anonimizzati: 50 emocolture, 250 urine e 112 tamponi rettali di sorveglianza. La valutazione del test è stata condotta sia direttamente a partire dalle matrici biologiche (emocolture e urinocolture positive) che dalle colonie isolate di CPE da tamponi rettali di sorveglianza, urine o emocolture. I risultati sperimentali ottenuti in vitro con il β Carba, mostrano una totale concordanza con i metodi sia fenotipici che genotipici utilizzati come riferimento: sono state ottenute sensibilità e specificità del 100%. Inoltre, a favore del test si inserisce il parametro fondamentale della rapidità, consentendo quindi una celere rilevazione di CPE direttamente su campioni clinici con un tempo di risposta piuttosto veloce e affidabile pari a 15-30 minuti. In definitiva, grazie alla performance dimostrata in vitro, il test può rappresentare un valido strumento per arginare e limitare lo spreading di CPE, svolgendo un buon ruolo nella gestione dei pazienti infetti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Acquisition made accessible thanks to a 2015-2017 grant from the Council on Libraries and Information Resources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Estrenado ... la noche del 12 de marzo de 1890, en el Teatro Hidalgo."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mode of access: Internet.