766 resultados para MÉTODOS DE ESTUDIO


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dinámica estructural estudia la respuesta de una estructura ante cargas o fenómenos variables en el tiempo. En muchos casos, estos fenómenos requieren realizar análisis paramétricos de la estructura considerando una gran cantidad de configuraciones de diseño o modificaciones de la estructura. Estos cambios, ya sean en fases iniciales de diseño o en fases posteriores de rediseño, alteran las propiedades físicas de la estructura y por tanto del modelo empleado para su análisis, cuyo comportamiento dinámico se modifica en consecuencia. Un caso de estudio de este tipo de modificaciones es la supervisión de la integridad estructural, que trata de identificar la presencia de daño estructural y prever el comportamiento de la estructura tras ese daño, como puede ser la variación del comportamiento dinámico de la estructura debida a una delaminación, la aparición o crecimiento de grieta, la debida a la pérdida de pala sufrida por el motor de un avión en vuelo, o la respuesta dinámica de construcciones civiles como puentes o edificios frente a cargas sísmicas. Si a la complejidad de los análisis dinámicos requeridos en el caso de grandes estructuras se añade la variación de determinados parámetros en busca de una respuesta dinámica determinada o para simular la presencia de daños, resulta necesario la búsqueda de medios de simplificación o aceleración del conjunto de análisis que de otra forma parecen inabordables tanto desde el punto de vista del tiempo de computación, como de la capacidad requerida de almacenamiento y manejo de grandes volúmenes de archivos de datos. En la presente tesis doctoral se han revisado los métodos de reducción de elementos .nitos más habituales para análisis dinámicos de grandes estructuras. Se han comparado los resultados de casos de estudio de los métodos más aptos, para el tipo de estructuras y modificaciones descritas, con los resultados de aplicación de un método de reducción reciente. Entre los primeros están el método de condensación estática de Guyan extendido al caso con amortiguamiento no proporcional y posteriores implementaciones de condensaciones dinámicas en diferentes espacios vectoriales. El método de reducción recientemente presentado se denomina en esta tesis DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), y consiste en el análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura, calculada en el espacio modal complejo y que admite modificaciones estructurales. El método DACMAM permite seleccionar un número reducido de grados de libertad significativos para la dinámica del fenómeno que se quiere estudiar como son los puntos de aplicación de la carga, localizaciones de los cambios estructurales o puntos donde se quiera conocer la respuesta, de forma que al implementar las modificaciones estructurales, se ejecutan los análisis necesarios sólo de dichos grados de libertad sin pérdida de precisión. El método permite considerar alteraciones de masa, rigidez, amortiguamiento y la adición de nuevos grados de libertad. Teniendo en cuenta la dimensión del conjunto de ecuaciones a resolver, la parametrización de los análisis no sólo resulta posible, sino que es también manejable y controlable gracias a la sencilla implementación del procedimiento para los códigos habituales de cálculo mediante elementos .nitos. En el presente trabajo se muestra la bondad y eficiencia del método en comparación con algunos de los métodos de reducción de grandes modelos estructurales, verificando las diferencias entre sí de los resultados obtenidos y respecto a la respuesta real de la estructura, y comprobando los medios empleados en ellos tanto en tiempo de ejecución como en tamaño de ficheros electrónicos. La influencia de los diversos factores que se tienen en cuenta permite identificar los límites y capacidades de aplicación del método y su exhaustiva comparación con los otros procedimientos. ABSTRACT Structural dynamics studies the response of a structure under loads or phenomena which vary over time. In many cases, these phenomena require the use of parametric analyses taking into consideration several design configurations or modifications of the structure. This is a typical need in an engineering o¢ ce, no matter the structural design is in early or final stages. These changes modify the physical properties of the structure, and therefore, the finite element model to analyse it. A case study, that exempli.es this circumstance, is the structural health monitoring to predict the variation of the dynamical behaviour after damage, such as a delaminated structure, a crack onset or growth, an aircraft that suffers a blade loss event or civil structures (buildings or bridges) under seismic loads. Not only large structures require complex analyses to appropriately acquire an accurate solution, but also the variation of certain parameters. There is a need to simplify the analytical process, in order to bring CPU time, data .les, management of solutions to a reasonable size. In the current doctoral thesis, the most common finite element reduction methods for large structures are reviewed. Results of case studies are compared between a recently proposed method, herein named DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), and different condensation methods, namely static or Guyan condensation and dynamic condensation in different vectorial spaces. All these methods are suitable for considering non-classical damping. The reduction method DACMAM consist of a structural modification in the complex modal domain which provides a dynamic response solution for the reduced models. This process allows the selection of a few degrees of freedom that are relevant for the dynamic response of the system. These d.o.f. are the load application points, relevant structural points or points in which it is important to know the response. Consequently, an analysis with structural modifications implies only the calculation of the dynamic response of the selected degrees of freedom added, but with no loss of information. Therefore, mass, stiffness or damping modifications are easily considered as well as new degrees of freedom. Taking into account the size of the equations to be solved, the parameterization of the dynamic solutions is not only possible, but also manageable and controllable due to the easy implementation of the procedure in the standard finite element solvers. In this thesis, the proposed reduction method for large structural models is compared with other published model order reduction methods. The comparison shows and underlines the efficiency of the new method, and veri.es the differences in the response when compared with the response of the full model. The CPU time, the data files and the scope of the parameterization are also addressed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La actividad volcánica interviene en multitud de facetas de la propia actividad humana, no siempre negativas. Sin embargo, son más los motivos de peligrosidad y riesgo que incitan al estudio de la actividad volcánica. Existen razones de seguridad que inciden en el mantenimiento del seguimiento y monitorización de la actividad volcánica para garantizar la vida y la seguridad de los asentamientos antrópicos en las proximidades de los edificios volcánicos. En esta tesis se define e implementa un sistema de monitorización de movimientos de la corteza en las islas de Tenerife y La Palma, donde el impacto social que representa un aumento o variación de la actividad volcánica en las islas es muy severo. Aparte de la alta densidad demográfica del Archipiélago, esta población aumenta significativamente, en diferentes periodos a lo largo del año, debido a la actividad turística que representa la mayor fuente de ingresos de las islas. La población y los centros turísticos se diseminan predominantemente a lo largo de las costas y también a lo largo de los flancos de los edificios volcánicos. Quizá el mantenimiento de estas estructuras sociales y socio-económicas son los motivos más importantes que justifican una monitorización de la actividad volcánica en las Islas Canarias. Recientemente se ha venido trabajando cada vez más en el intento de predecir la actividad volcánica utilizando los nuevos sistemas de monitorización geodésica, puesto que la actividad volcánica se manifiesta anteriormente por deformación de la corteza terrestre y cambios en la fuerza de la gravedad en la zona donde más tarde se registran eventos volcánicos. Los nuevos dispositivos y sensores que se han desarrollado en los últimos años en materias como la geodesia, la observación de la Tierra desde el espacio y el posicionamiento por satélite, han permitido observar y medir tanto la deformación producida en el terreno como los cambios de la fuerza de la gravedad antes, durante y posteriormente a los eventos volcánicos que se producen. Estos nuevos dispositivos y sensores han cambiado las técnicas o metodologías geodésicas que se venían utilizando hasta la aparición de los mismos, renovando métodos clásicos y desarrollando otros nuevos que ya se están afianzando como metodologías probadas y reconocidas para ser usadas en la monitorización volcánica. Desde finales de la década de los noventa del siglo pasado se han venido desarrollando en las Islas Canarias varios proyectos que han tenido como objetivos principales el desarrollo de nuevas técnicas de observación y monitorización por un lado y el diseño de una metodología de monitorización volcánica adecuada, por otro. Se presenta aquí el estudio y desarrollo de técnicas GNSS para la monitorización de deformaciones corticales y su campo de velocidades para las islas de Tenerife y La Palma. En su implementación, se ha tenido en cuenta el uso de la infraestructura geodésica y de monitorización existente en el archipiélago a fin de optimizar costes, además de complementarla con nuevas estaciones para dar una cobertura total a las dos islas. Los resultados obtenidos en los proyectos, que se describen en esta memoria, han dado nuevas perspectivas en la monitorización geodésica de la actividad volcánica y nuevas zonas de interés que anteriormente no se conocían en el entorno de las Islas Canarias. Se ha tenido especial cuidado en el tratamiento y propagación de los errores durante todo el proceso de observación, medida y proceso de los datos registrados, todo ello en aras de cuantificar el grado de fiabilidad de los resultados obtenidos. También en este sentido, los resultados obtenidos han sido verificados con otros procedentes de sistemas de observación radar de satélite, incorporando además a este estudio las implicaciones que el uso conjunto de tecnologías radar y GNSS tendrán en un futuro en la monitorización de deformaciones de la corteza terrestre. ABSTRACT Volcanic activity occurs in many aspects of human activity, and not always in a negative manner. Nonetheless, research into volcanic activity is more likely to be motivated by its danger and risk. There are security reasons that influence the monitoring of volcanic activity in order to guarantee the life and safety of human settlements near volcanic edifices. This thesis defines and implements a monitoring system of movements in the Earth’s crust in the islands of Tenerife and La Palma, where the social impact of an increase (or variation) of volcanic activity is very severe. Aside from the high demographic density of the archipelago, the population increases significantly in different periods throughout the year due to tourism, which represents a major source of revenue for the islands. The population and the tourist centres are mainly spread along the coasts and also along the flanks of the volcanic edifices. Perhaps the preservation of these social and socio-economic structures is the most important reason that justifies monitoring volcanic activity in the Canary Islands. Recently more and more work has been done with the intention of predicting volcanic activity, using new geodesic monitoring systems, since volcanic activity is evident prior to eruption because of a deformation of the Earth’s crust and changes in the force of gravity in the zone where volcanic events will later be recorded. The new devices and sensors that have been developed in recent years in areas such as geodesy, the observation of the Earth from space, and satellite positioning have allowed us to observe and measure the deformation produced in the Earth as well as the changes in the force of gravity before, during, and after the volcanic events occur. The new devices and sensors have changed the geodetic techniques and methodologies that were used previously. The classic methods have been renovated and other newer ones developed that are now vouched for as proven recognised methodologies to be used for volcanic monitoring. Since the end of the 1990s, in the Canary Islands various projects have been developed whose principal aim has been the development of new observation and monitoring techniques on the one hand, and the design of an appropriate volcanic monitoring methodology on the other. The study and development of GNSS techniques for the monitoring of crustal deformations and their velocity field is presented here. To carry out the study, the use of geodetic infrastructure and existing monitoring in the archipelago have been taken into account in order to optimise costs, besides complementing it with new stations for total coverage on both islands. The results obtained in the projects, which are described below, have produced new perspectives in the geodetic monitoring of volcanic activity and new zones of interest which previously were unknown in the environment of the Canary Islands. Special care has been taken with the treatment and propagation of errors during the entire process of observing, measuring, and processing the recorded data. All of this was done in order to quantify the degree of trustworthiness of the results obtained. Also in this sense, the results obtained have been verified with others from satellite radar observation systems, incorporating as well in this study the implications that the joint use of radar technologies and GNSS will have for the future of monitoring deformations in the Earth’s crust.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de los factores que determinan el establecimiento y supervivencia de orquídeas epífitas, incluyen: a) las condiciones microambientales de los bosques que las mantienen, b) preferencias por las características de los hospederos donde crecen, c) limitación en la dispersión de semillas, d) interacciones planta-planta, y e) asociaciones micorrízicas para la germinación y resultan esenciales para el desarrollo de estrategias para la conservación y manejo de este grupo de plantas. Este trabajo ha evaluado la importancia de estos factores en Epidendrum rhopalostele, orquídea epífita del bosque de niebla montano, a través de los análisis de los patrones espaciales de los árboles que la portan y de la propia orquídea, a escala de población, estudios de asociación y métodos moleculares. Estos últimos han consistido en el uso de marcadores AFLP para el análisis de la estructura genética de la orquídea y en la secuenciación-clonación de la región ITS para la identificación de los hongos micorrízicos asociados. El objetivo de esta tesis es, por tanto, una mejor comprensión de los factores que condicionan la presencia de orquídeas epífitas en los remanentes de bosque de niebla montano y una evaluación de las implicaciones para la conservación y mantenimiento de sus hábitats y la permanencia de sus poblaciones. El estudio fue realizado en un fragmento de bosque de niebla montano de sucesión secundaria situado al este de la Cordillera Real, en los Andes del sur de Ecuador, a 2250 m.s.n.m y caracterizado por una pendiente marcada, temperatura media anual de 20.8°C y precipitación anual de 2193 mm. En este fragmento se mapearon, identificaron y caracterizaron todos los árboles presentes con DBH > 1 cm y todos los individuos de Epidendrum rhopalostele. Así mismo se tomaron muestras de hoja para obtener ADN de todas las orquídeas registradas y muestras de raíces de individuos con flor de E. rhopalostele, uno por cada forófito, para el análisis filogenético de micorrizas. Análisis espaciales de patrones de puntos basados en la K de Ripley y la distancia al vecino más cercano fueron usados para los árboles, forófitos y la población de E. rhopalostele. Se observó que la distribución espacial de árboles y forófitos de E. rhopalostele no es aleatoria, ya que se ajusta a un proceso agregado de Poisson. De ahí se infiere una limitación en la dispersión de las semillas en el fragmento estudiado y en el establecimiento de la orquídea. El patrón de distribución de la población de E. rhopalostele en el fragmento muestra un agrupamiento a pequeña escala sugiriendo una preferencia por micro-sitios para el establecimiento de la orquídea con un kernel de dispersión de las semillas estimado de 0.4 m. Las características preferentes del micro-sitio como tipos de árboles (Clusia alata y árboles muertos), tolerancia a la sombra, corteza rugosa, distribución en los dos primeros metros sugieren una tendencia a distribuirse en el sotobosque. La existencia de una segregación espacial entre adultos y juveniles sugiere una competencia por recursos limitados condicionada por la preferencia de micro-sitio. La estructura genética de la población de E. rhopalostele analizada a través de Structure y PCoA evidencia la presencia de dos grupos genéticos coexistiendo en el fragmento y en los mismos forófitos, posiblemente por eventos de hibridización entre especies de Epidendrum simpátricas. Los resultados del análisis de autocorrelación espacial efectuados en GenAlex confirman una estructura genético-espacial a pequeña escala que es compatible con un mecanismo de dispersión de semillas a corta distancia ocasionada por gravedad o pequeñas escorrentías, frente a la dispersión a larga distancia promovida por el viento generalmente atribuida a las orquídeas. Para la identificación de los micobiontes se amplificó la región ITS1-5.8S-ITS2, y 47 secuencias fueron usadas para el análisis filogenético basado en neighborjoining, análisis bayesiano y máximum-likelihood que determinó que Epidendrum rhopalostele establece asociaciones micorrízicas con al menos dos especies diferentes de Tulasnella. Se registraron plantas que estaban asociadas con los dos clados de hongos encontrados, sugiriendo ausencia de limitación en la distribución del hongo. Con relación a las implicaciones para la conservación in situ resultado de este trabajo se recomienda la preservación de todo el fragmento de bosque así como de las interacciones existentes (polinizadores, micorrizas) a fin de conservar la diversidad genética de esta orquídea epífita. Si fuere necesaria una reintroducción se deben contemplar distancias entre los individuos en cada forófito dentro de un rango de 0.4 m. Para promover el reclutamiento y regeneración de E. rhopalostele, se recomienda que los forófitos correspondan preferentemente a árboles muertos o caídos y a especies, como Clusia alata, que posean además corteza rugosa, sean tolerantes a la sombra, y en el área del sotobosque con menor luminosidad. Además es conveniente que las orquídeas en su distribución vertical estén ubicadas en los primeros metros. En conclusión, la limitación en la dispersión, las características del micro-sitio, las interacciones intraespecíficas y con especies congenéricas simpátricas y las preferencias micorrízicas condicionan la presencia de esta orquídea epífita en este tipo de bosque. ABSTRACT The analysis of factors that determine the establishment and survival of epiphytic depends on factors such as a) microenvironmental conditions of forest, b) preference for host characteristics where orchids grow, c) seed dispersal limitation, d) plant-plant interaction, e) priority mycorrhizal associations for germination, are essential for the development of strategies for management and conservation. This work evaluated the importance of these factors in Epidendrum rhopalostele, an epiphytic orchid of montane cloud forest through the analysis of spatial patterns of host trees and the orchid, in a more specific scale, with association studies and molecular methods, including AFLPs for orchid population genetic structure and the sequencing of the ITS region for associated mycorrhizal fungi. The aim of this thesis is to understand the factors that condition the presence of epiphytic orchids in the remnants of montane cloud forest and to assess the implications for the conservation and preservation of their habitats and the persistence of the orchid populations. The study was carried out in a fragment of montane cloud forest of secondary succession on the eastern slope of Cordillera Real in the Andes of southern Ecuador, located at 2250 m a.s.l. characterized by a steep slope, mean annual temperature of 20.8°C and annual precipitation of 2193 mm. All trees with DBH > 1 cm were mapped, characterized and identified. All E. rhopalostele individuals present were counted, marked, characterized and mapped. Leaf samples of all orchid individuals were collected for DNA analysis. Root samples of flowering E. rhopalostele individuals were collected for phylogenetic analysis of mycorrhizae, one per phorophyte. Spatial point pattern analysis based on Ripley`s K function and nearest neighbor function was used for trees, phorophytes and orchid population. We observed that spatial distribution of trees and phorophytes is not random, as it adjusts to a Poisson cluster process. This suggests a limitation for seed dispersal in the study fragment that is affecting orchid establishment. Furthermore, the small-scale spatial pattern of E. rhopalostele evidences a clustering that suggests a microsite preference for orchid establishment with a dispersal kernel of 0.4 m. Microsite features such as types of trees (dead trees or Clusia alata), shade tolerance trees, rough bark, distribution in the first meters suggest a tendency to prefer the understory for their establishment. Regarding plant-plant interaction a spatial segregation between adults and juveniles was present suggesting competition for limited resources conditioned for a microsite preference. Analysis of genetic structure of E. rhopalostele population through Structure and PCoA shows two genetic groups coexisting in this fragment and in the same phorophyte, possibly as a result of hybridization between sympatric species of Epidendrum. Our results of spatial autocorrelation analysis develop in GenAlex confirm a small-scale spatial-genetic structure within the genetic groups that is compatible with a short-distance dispersal mechanism caused by gravity or water run-off, instead of the long-distance seed dispersal promoted by wind generally attributed to orchids. For mycobionts identification ITS1-5.8S-ITS2 rDNA region was amplified. Phylogenetic analysis was performed with neighborjoining, Bayesian likelihood and maximum-likelihood for 47 sequences yielded two Tulasnella clades. This orchid establishes mycorrhizal associations with at least two different Tulasnella species. In some cases both fungi clades were present in same root, suggesting no limitation in fungal distribution. Concerning the implications for in situ conservation resulting from this work, the preservation of all forest fragment and their interactions (pollinators, mycorrhiza) is recommended to conserve the genetic diversity of this species. If a reintroduction were necessary, distances between individuals in each phorophyte within a range of 0.4 m, are recommended. To promote recruitment and regeneration of E. rhopalostele it is recommended that phorophytes correspond to dead or fallen trees or species, such as Clusia alata. Trees that have rough bark and are shade tolerant are also recommended. Furthermore, regarding vertical distribution, it is also convenient that orchids are located in the first meter (in understory, area with less light). In conclusion, limitation on seed dispersal, microsite characteristics, plant-plant interactions or interaction with cogeneric sympatric species and mycorrhizal preferences conditioned the presence of this epiphytic orchid in this fragment forest.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde hace más de 20 años, muchos grupos de investigación trabajan en el estudio de técnicas de reconocimiento automático de expresiones faciales. En los últimos años, gracias al avance de las metodologías, ha habido numerosos avances que hacen posible una rápida detección de las caras presentes en una imagen y proporcionan algoritmos de clasificación de expresiones. En este proyecto se realiza un estudio sobre el estado del arte en reconocimiento automático de emociones, para conocer los diversos métodos que existen en el análisis facial y en el reconocimiento de la emoción. Con el fin de poder comparar estos métodos y otros futuros, se implementa una herramienta modular y ampliable y que además integra un método de extracción de características que consiste en la obtención de puntos de interés en la cara y dos métodos para clasificar la expresión, uno mediante comparación de desplazamientos de los puntos faciales, y otro mediante detección de movimientos específicos llamados unidades de acción. Para el entrenamiento del sistema y la posterior evaluación del mismo, se emplean las bases de datos Cohn-Kanade+ y JAFFE, de libre acceso a la comunidad científica. Después, una evaluación de estos métodos es llevada a cabo usando diferentes parámetros, bases de datos y variando el número de emociones. Finalmente, se extraen conclusiones del trabajo y su evaluación, proponiendo las mejoras necesarias e investigación futura. ABSTRACT. Currently, many research teams focus on the study of techniques for automatic facial expression recognition. Due to the appearance of digital image processing, in recent years there have been many advances in the field of face detection, feature extraction and expression classification. In this project, a study of the state of the art on automatic emotion recognition is performed to know the different methods existing in facial feature extraction and emotion recognition. To compare these methods, a user friendly tool is implemented. Besides, a feature extraction method is developed which consists in obtaining 19 facial feature points. Those are passed to two expression classifier methods, one based on point displacements, and one based on the recognition of facial Action Units. Cohn-Kanade+ and JAFFE databases, both freely available to the scientific community, are used for system training and evaluation. Then, an evaluation of the methods is performed with different parameters, databases and varying the number of emotions. Finally, conclusions of the work and its evaluation are extracted, proposing some necessary improvements and future research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El tratamiento superficial por ondas de choque generadas por láser, LSP, es una técnica cuyo principal objetivo es el de la modificación del estado tensional de las primeras micras en profundidad de materiales metálicos. En sus comienzos está técnica fue empleada para inducir tensiones residuales de compresión en superficie, pero mientras se avanzaba en su desarrollo se empezaron a observar otros efectos. Profundizando en ellos se llega a la conclusión de que existe una fuerte relación entre todos, pero dependiendo de la aplicación a la que se vea sometido un componente tratado con LSP será necesario una serie de características que bien pueden ser ajustadas “a priori”. Para ello se ha de tener una buena caracterización del proceso láser y de las modificaciones que produce en las propiedades de un material determinado. Y es en este punto donde surge el problema: las modificaciones introducidas por el tratamiento láser son dependientes de la interacción de la energía del pulso láser con el material, es decir, para cada material es necesaria una caracterización previa de cómo sus propiedades son modificadas con las diferentes configuraciones del tratamiento LSP, encontrando para cada material un óptimo en los parámetros láser. En esta Tesis se pretende desarrollar una metodología para evaluar las modificaciones en las propiedades mecánicas y superficiales inducidas en materiales metálicos debido al tratamiento superficial por ondas de choque. De esta manera y avanzando de una manera lógica con la línea de investigación del grupo, se ha querido aplicar todo el conocimiento adquirido de la técnica para desarrollar esa metodología sobre un caso práctico: el empleo de dos configuraciones de tratamiento LSP sobre el acero inoxidable AISI 316L. Estas dos configuraciones elegidas se hacen en base a estudios previos, por parte del grupo de investigación, donde se han optimizados los parámetros para obtener el óptimo en lo que a perfil de tensiones residuales en profundidad se refiere. El material elegido como caso característico para llevar acabo la evaluación integrada del tratamiento LSP, de acuerdo con el propósito de esta Tesis, ha sido el acero inoxidable AISI 316L, debido a que este tipo de acero tiene una excelente resistencia a la corrosión en un amplio rango de atmosferas corrosivas, y es conocido como el grado estándar para un importante número de aplicaciones tecnológicas. La resistencia a la oxidación es buena incluso a altas temperaturas de servicio y la soldabilidad es excelente. Los aceros austeníticos son empleados en aplicaciones que soportan condiciones de alta temperatura y medios altamente corrosivos, como en reactores nucleares. Estos aceros resisten la corrosión en el agua de un reactor y procesos químicos en plantas que operan a temperaturas superiores a los 900 ˚C. En concreto el acero 316L se utiliza en la industria de equipamiento alimentario, en ambientes donde haya presencia de cloruros, en aplicaciones farmacéuticas, en la industria naval, en arquitectura, sector energético, centrales nucleares y en implantes médicos. Es decir, es un material ampliamente implantado en la industria, tanto en industrias tradicionales, como en industrias emergentes como la biomédica. El objetivo marcado para el desarrollo de la presente Tesis es caracterizar de forma precisa cómo el tratamiento superficial por ondas de choque generadas por láser es capaz de mejorar las propiedades de los materiales y cómo de estables son estas con la temperatura. Este punto es importante puesto que a la hora de introducir el proceso LSP en la industria no solo se tiene que tener en cuenta que las propiedades del material sean mejoradas, sino que también es necesario comprobar si esas mejoras se mantienen después de ser sometido el material a un tratamiento térmico ya que las condiciones de servicio de los materiales y componentes empleados no tienen por qué trabajar a temperatura ambiente. Para lograr el objetivo mencionado, el trabajo experimental realizado en la aleación seleccionada bajo todas las condiciones a estudio (material según fue recibido de fábrica, tratado con las dos configuraciones LSP y después de haber sido sometido al tratamiento térmico) ha consistido en lo siguiente: i) Estudios microestructural, morfológico y de composición química. ii) Medida de las tensiones residuales introducidas. iii) Caracterización superficial del material. iv) Estudio de las propiedades mecánicas: ensayos de tracción, ensayos de dureza, cálculo de la densidad de dislocaciones y ensayos de fatiga. v) Caracterización tribológica: ensayos de fricción y cálculo de la tasa de desgaste y volumen eliminado. vi) Caracterización electro-química para el material base y tratado con las dos configuraciones LSP. Se realizan medidas a circuito abierto, curvas de polarización (OCP), ensayos potenciostáticos y espectroscopia de impedancia electroquímica (EIS). El trabajo se ha llevado a cabo en los laboratorios del Centro Láser de la Universidad Politécnica de Madrid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El establecimiento de políticas de vigilancia y protección del suelo exige la validación de métodos de análisis eficaces para determinar la calidad del suelo y hacer posible su evaluación en relación con su estado de contaminación. Para poder caracterizar el suelo desde el punto de vista de su vitalidad, se han investigado los Métodos de Formación de Imágenes (Bildschaffende Methode) y en particular los métodos de Dinamolisis Capilar (Steigbild Methode) desarrollados por L. Kolisko. Partiendo de la configuración horizontal conocida como Chroma-Test, propuesta por E. Pfeiffer, se han identificado las modificaciones del método original que hacen posible su validación. A continuación se han verificado realizando ensayos ciegos colaborativos y comparando los resultados con los obtenidos por otros métodos experimentales utilizados para evaluar la fertilidad del suelo. Como caso práctico se presenta una investigación en el antiguo distrito minero de plomo de Linares, situado en Jaén, España. Esta investigación sienta las bases para un avance significativo en la evaluación de los suelos y su posible calificación como contaminados. El método Horizontal de Dinamolisis Capilar propuesto permite identificar de forma simple y directa los efectos inhibidores de las funciones del suelo debidas tanto a la contaminación puntual o local como a la contaminación difusa. AB S TRACT Establishing policies for Soil protection and monitoring, requires the validation of effective analytical methods for determining soil quality and assess the state of contamination. The possibilities of Image Forming Methods (Bildschaffende Methode), and in particular the methods of Capillary Dynamolysis (Steigbild Methode) of L. Kolisko have been investigated in order to characterize soil quality from the point of view of its vitality. Based on the horizontal configuration known as Chroma-Test, proposed by E. Pfeiffer, the amendments to the original method that enable validation have been identified, and then verified through collaborative blind tests and through comparison with results provided by other experimental methods often used in agriculture to assess soil quality. As a case study the investigation at the former lead mining district of Linares, located in Jaen, Spain, is presented. This research lays the groundwork for significant progress in the assessment of soils and their possible declaration as contaminated. The proposed Horizontal Capyllary Dynamolysis Method allows to identify in a simple and direct way the inhibiting effects on soil functions due to both local contamination and/or diffuse contamination.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente investigación aborda el análisis de las cualidades del entorno urbano que inciden en la experiencia perceptiva de su recorrido. Los intereses que la motivan tienen que ver con la recuperación de la ciudad para el viandante y se sitúa dentro de un marco de intereses más amplio como es el de la ciudad sostenible. En primer lugar, se contextualiza el tema de la experiencia del recorrido a través de disciplinas diferentes como son el cine, la literatura, la arquitectura, el urbanismo, la arquitectura del paisaje, la psicología y la estética ambiental. De este modo, se refuerza el argumento en torno al papel que desempeñan la forma y otros estímulos sensoriales en la experiencia del espacio, ya sea éste urbano, arquitectónico o natural. La experiencia que las personas viven al desplazarse por un entorno viene definida por infinitos factores que van desde la configuración física del entorno recorrido, hasta el aprendizaje cultural de la persona que camina; desde los estímulos sensoriales que se reciben, hasta las condiciones físicas que posibilitan la funcionalidad del recorrido; desde las sutilezas de índole secuencial que se desvelan a medida que avanzamos, hasta las condiciones higrotérmicas en el momento en que se lleva a cabo el desplazamiento. Sin embargo, factores como las motivaciones y atenciones personales del que anda, así como sus recuerdos de experiencias anteriores, deseos, imaginación y estado de ánimo, también definen nuestra experiencia al caminar que, indudablemente, se encuentra ligada a nuestra personalidad y, por lo tanto, no puede ser exacta a la de otra persona. Conscientes de que todos estos factores se funden en un fenómeno global, y que no se dan en la vida por separado, nos hemos esforzado por independizar las cualidades sensoriales y formales, únicamente a efectos de investigación. La importancia del tema a investigar reside en las conexiones que existen entre las cualidades del medio construido y la experiencia cotidiana de su recorrido, en la medida en que dicha vinculación establece relaciones con la calidad de vida, la salud de los ciudadanos y sus sentimientos de identidad. En este sentido, el problema clave encontrado es que si la definición de la experiencia del recorrido urbano es demasiado amplia, se vuelve nebulosa e inoperativa, pero si se precisa demasiado, se pueden excluir variables importantes. Hemos concentrado nuestros esfuerzos en buscar un medio que permita hacer operativo el estudio de aspectos que, por su propia naturaleza, son difíciles de controlar y aplicar en la práctica. En este sentido, el campo de estudio que aúna interés en el tema, producción científica y vocación práctica, es el de la caminabilidad de las ciudades. Por esta razón, hemos situado nuestro trabajo dentro del marco de criterios que este campo establece para valorar un entorno caminable. Sin embargo, hemos detectado que los trabajos sobre caminabilidad tienden a desarrollarse dentro de la disciplina del planeamiento de transporte y, con frecuencia, siguiendo las mismas pautas que la investigación sobre el transporte motorizado. Además, la tendencia a proporcionar datos numéricos producto de la medición controlada de variables, para respaldar iniciativas dentro de los ámbitos de toma de decisiones, lleva consigo un progresivo alejamiento de los aspectos más sutiles y próximos de la experiencia de las personas y la especificidad de los lugares. Por estas razones, hemos estimado necesario profundizar en la experiencia peatonal explorando otras líneas de trabajo como son la habitabilidad de las ciudades, políticas llevadas a cabo para mejorar la calidad del espacio público o las certificaciones de sostenibilidad en el ámbito del urbanismo. También se han estudiado las aproximaciones gráficas a la representación y simulación de recorridos urbanos por su importancia en la comunicación y promoción de caminar. Para detectar las problemáticas implicadas en la definición de una herramienta que permita valorar, de manera operativa, la calidad de la experiencia del recorrido urbano, la metodología de valoración propuesta se ha basado en la combinación de distintos métodos y en la conjugación de tres aproximaciones: valoración por parte del investigador en calidad de experto, valoración realizada por el investigador en el papel de usuario y valoración por el ciudadano. El desarrollo de esta investigación se ha visto condicionado por la intención de aplicar lo estudiado en un caso práctico. El marco de criterios que los trabajos sobre caminabilidad de las ciudades establecen para que se dé un entorno caminable, se puede resumir en que concurran los siguientes factores: mezcla de usos, densidad de población y edificación relativamente altas, destinos públicos accesibles a pie, un alto grado de seguridad con respecto al tráfico y actos delictivos, alta funcionalidad (dimensiones, pendientes, etc.) y atractivo. Una vez definido el modelo de ciudad en que es pertinente realizar una investigación sobre las cualidades del entorno urbano responsables de que éste se perciba como atractivo, se escogió la ciudad de Taipei, entre otras razones, por cumplir con los requisitos restantes. Con respecto al caso práctico, el objetivo es detectar fortalezas y debilidades del área central de la ciudad de Taipei en cuanto a la experiencia perceptiva que proporciona a los viandantes. ABSTRACT This research addresses the analysis of the qualities of the urban environment that affect the perceptual experience of walking. The interests lying behind it are related to the recovery of the city for pedestrians, and is framed within the sustainable city framework of interests. Firstly, the issue of the experience of walking is contextualized through different disciplines such as film, literature, architecture, urban planning, landscape architecture, environmental psychology and aesthetics. This way, the argument about the role that form and other sensory stimuli play in the experience of space, whether it is urban, architectural or natural, is strengthened. The walking experience of people is defined by factors ranging from the physical configuration of the environment to the cultural background of the person who walks, from the sensory stimuli that are perceived to the physical conditions that enable the functionality of the walk, from the subtleties of sequential nature that are revealed as we move around to hygrothermal conditions at the specific time of walking. Nevertheless, factors such as personal motivations and attentions of the walker, as well as memories of past experiences, desires, imagination and mood, also define our walking experience that is undoubtedly linked to our personality and, therefore, it cannot be exactly the same as other people's experience. Being aware that all these factors come together in a total phenomenon and that, in real life, they do not exist separately, we focused on separating sensory and formal qualities only for research purposes. The importance of the research topic lies in the connections between the qualities of the built environment and the quotidian experience of walking through it, to the extent that such link establishes relationships with the quality of life, health and feelings of identity of citizens. In this sense, the key problem encountered is that, if the definition of urban walking experience is too broad, it becomes nebulous and non‐operational, but if it is too precise, important variables can be excluded. We concentrated our efforts on finding a way to operationalize the study of questions that, by their very nature, are difficult to control and apply in practice. In this regard, the field of study that combines interest in the topic, scientific production and practical purpose, is the walkability of cities. For this reason, we placed our work within the framework of the set of criteria that this field establishes for assessing an environment as walkable. However, we found that works on walkability tend to be developed within the discipline of transportation planning and often following the same guidelines that research on motorized transport. Furthermore, the tendency to provide numerical data as a result of the controlled measurement of variables in order to support initiatives in decision making areas, involves a progressive distancing from the proximity and the most subtle aspects of the experience of people, and from the specificity of places. For these reasons, we considered it was necessary to deepen into the study of pedestrians experience, by exploring other lines of work such as the livability of cities, implemented policies to improve the quality of the public space or sustainability certifications in urbanism. Graphic representation and simulation of urban walks are also studied due to their important role in communication and promotion of walking. In order to find the issues involved in defining a tool to assess, in an operational way, the quality of urban walking experience, the proposed assessment methodology is based on the combination of different methods and the synthesis of three approaches: assessment by the researcher as expert, assessment by the researcher playing the role of user and assessment by the citizens. The development of this research has been conditioned by our intention of applying it in a case study. The framework of criteria that works on walkability of cities set to define a walkable environment, can be summarized in the following factors: mix of uses, population and building density rather high, public destinations accessible on foot, high levels of safety in terms of traffic and crime, high functionality (dimensions, slopes, etc.) and attractiveness. After defining the model of city in which it is relevant to conduct an investigation on the qualities that are responsible of the attractiveness of the environment; Taipei City was selected because it meets the remaining requirements, among other reasons. Regarding the case study, the goal is to identify strengths and weaknesses in the central area of Taipei City in terms of the perceptual experience of pedestrians.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El estudio del binomio Arquitectura-Naturaleza como sistema es algo que, desde hace ya algunos años ha ido cobrando actualidad. La investigación sobre organizaciones rurales de pequeño tamaño, desde su ubicación hasta la solución constructiva por el sistema de prueba y error (adecuación, aprovechamiento del Medio Ambiente, estructuras económicas y habitación) se hace por métodos empíricos, dándonos pautas que ayuden a establecer los sistemas de relación entre ellos y el Medio, y dejar ver de qué modo los pueblos forman parte del sistema medio ambiental en que se asientan. Contempla el estudio de La Vall de Gallinera, en la Marina Alta, Alicante. Es un valle que se corresponde con un Término Municipal y que comprende un sistema de pueblecitos que manteniendo la estructura de poblamiento morisco se encuentra vivo y en evolución. En este estudio se pone en relación los parámetros medioambientales con los arquitectónicos de un modo claro y asequible, buscando un lenguaje común y estableciendo algunas de las interrelaciones básicas entre parámetros

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral tiene como objeto el acercamiento histórico-constructivo a la realidad material de las fortificaciones edificadas en el centro de la Península Ibérica durante los primeros siglos de la Edad Media. El marco geográfico se extiende desde el cauce del río Duero, delimitado por los valles de sus afluentes, el Duratón, al oeste, y el Escalote al este, hasta las cumbres del Sistema Central oriental en su entronque con el Ibérico, para descender por la falda sur de la sierra hasta los valles altos del Lozoya, Jarama y Henares. Siguiendo las demarcaciones actuales, el marco de estudio ocupa parcialmente las provincias de Soria, Guadalajara, Madrid, Segovia, Burgos y Valladolid. Desde un punto de vista cronológico, el espacio temporal se inicia con la conquista musulmana de la Península Ibérica de 711 y culmina con la incorporación definitiva al reino de Castilla de las zonas estudiadas, en torno al año 1150. Se trata de un espacio de transición, tanto desde el punto de vista social como ecológico. Los territorios al sur de la sierra correspondían a los confines septentrionales de la Marca Media de al-Andalus, mientras que la falta norte, los extrema durii, fueron un territorio escasamente poblado y desorganizado, foco de la expansión de los reinos de León y Castilla y zona de conflicto con al-Andalus a principios del siglo X. Un territorio tan amplio y heterogéneo, unido a una compleja evolución histórica y social y la parquedad de las fuentes escritas, ha necesitado de un acercamiento con una metodología de tipo mixto, en la que han convergido las técnicas propias de la documentación histórica, de la arqueología y de la historia de la construcción. Esta metodología parte de un exhaustivo vaciado bibliográfico, tras lo cual se planteó una prospección arqueológica dirigida que permitió realizar un catálogo de elementos fortificados en el área de estudio susceptibles de contener fases altomedievales. Sobre cada uno de los elementos localizados se realizó una toma de datos de tipo gráfico métrico y constructivo. Cruzando los datos recabados en cada edificio con técnicas propias de la estratigrafía e historia de la construcción se identificaron y aislaron las fases de la cronología analizada. Entre las fortificaciones que evidenciaron fases altomedievales y atendiendo a su singularidad, representatividad y calidad estratigráfica se ha profundizado en el análisis de nueve casos de estudio: el conjunto fortificado de Atienza, el castillo de Cogolludo, el recinto amurallado de Buitrago de Lozoya, el castillo de Caracena, la iglesia parroquial de la Inmaculada Concepción de Mezquetillas, la alcazaba de Gormaz, la torre de San Andrés de Sepúlveda, la iglesia parroquial de San Miguel de Ayllón y la fortificación rupestre de Alcolea de las Peñas. La investigación ha servido para dos fines principales. El primero se centra en el aspecto material. En este sentido no solo se ha identificado la presencia o ausencia de fases altomedievales en cado uno de los edificio lo que ha permitido realizar una lectura territorial, la caracterización de las diferentes técnicas y materiales constructivos y valorar la posibilidad de establecer una cronotipología. El segundo se centra en aspectos históricos y sociales. La vinculación de estos restos materiales con la documentación histórica ha devenido en un medio para conocer la historia de las gentes que construyeron estos edificios, la motivación que les llevó a emprender tales proyectos, así como el contexto en el que cada una de estas fortificaciones desempeñó las funciones para las que fue creada. Este estudio ha puesto de manifiesto la ruptura que supuso la ocupación estatal de esta zona por parte del ejército cordobés desde mediados del siglo X, tanto desde el punto de vista social como constructivo. Se ha podido documentar materialmente esta ocupación tras la restauración de Medinaceli, en torno a 946, y la sucedida tras la toma de Sepúlveda por parte de Almanzor en 984, diferenciándose claramente las técnicas constructivas propias de este momento, ejecutadas directamente por talleres foráneos, procedentes de Córdoba y Toledo. La posición estratigráfica de estas fábricas diagnósticas ha permito identificar fases constructivas inmediatamente anteriores y posteriores a este momento. También se ha podido comprobar la hipótesis inicial en relación a la pérdida de conocimientos constructivos durante el final de la Antigüedad y los primeros siglos del medievo en la zona estudiada. La sillería y la explotación de canteras, así como el ciclo productivo del ladrillo por completo, son recuperados sin recurrir a un sustrato tecnológico local, propiciados de manera efímera por la ocupación califal. Cuando se produce el desmembramiento del califato a partir del año 1010 estas técnicas se vuelven a abandonar. A finales del siglo XI y principios del siglo XII se produce un nuevo cambio en la construcción, recuperándose de nuevo estas técnicas de la mano del románico y del establecimiento de la red parroquial diocesana. En una zona y periodo histórico apenas explotado por la investigación, esta tesis doctoral busca no solo establecer una metodología de trabajo sino sentar las bases para futuros estudios, tanto desde el punto de vista particular, profundizando en el estudio constructivo y estratigráfico de cada uno de los elementos recogidos, como en otros aspectos más trasversales. ABSTRACT This doctoral thesis has a constructive historical material approach to the reality of the fortifications built in the center of the Iberian Peninsula during the first centuries of the middle Ages. The geographical framework extends from the Duero´s riverbed, bounded by the valleys of its tributaries, the Duratón on the west, and the Escalote on the east, until to the peaks of the eastern Central System at its connection with the Iberian, to descend the hillside of the mountain range to the high valleys of Lozoya, Jarama and Henares. Following the current demarcations under this framework study, partially cover the provinces of Soria, Guadalajara, Madrid, Segovia, Burgos and Valladolid. From a chronological point of view, the temporal space began with the Muslim conquest of the Iberian Peninsula in 711 A.D and ends with the final incorporation into the Kingdom of Castile in the studied areas, around the year 1150 A.D. It is a transitional gathering point, both socially and ecologically. The southern territories of the Sierra or mountain range corresponded to the northern boundaries of the Middle mark of al- Andalus , while the northern missing, the extrema Durii , were a disorganized sparsely populated territory and point of the expansion of the kingdoms of Leon and Castile and zone of conflict with al- Andalus at the beginning of the tenth century. Such a wide and diverse territory, connected with a complex historical, social evolution and the lack of written sources , has required an approach with a mixed type methodology, which have converged the techniques of historical documentation of the archeology and building history. This methodology comes from a comprehensive bibliographic study, after which an archaeological survey was directed that allowed building a fortified elements ‘catalog in the study area likely to contain high medieval period phases were raised. On each of the elements located one metric data collection and constructive graphic type was performed. Checking against the data collected in each building with its own history of stratigraphy and construction techniques and finally, they were identified and isolated the timing analysis phases. Among the early medieval fortifications that showed high period Medieval phases and according to its uniqueness , representativeness and stratigraphy’s quality of the nine case studies : the fortified complex of Atienza, Cogolludo Castle, the Buitrago de Lozoya´s walled enclosure , the Caracena´s castle , the Mezquetillas´ parish church, the Gormaz´s fortress, the San Andres toser in Sepulveda, the church of San Miguel de Ayllón and the Alcolea de las Peñas´ rock fortress. This research study has served two main purposes. The first focuses on the material side. In this sense it does not only identified the presence or absence of early medieval period phases in each one of the building, which has allowed a territorial reading and the characterization of the different construction techniques and materials, but it also assess the possibility of establishing a chrono–typology. The second focuses on historical and social aspects. The bound of these materials remains with the historical documentation has become a means to know the history of the people who built these buildings, the motivation that led them to undertake such projects as well as the context in which each of these fortifications played the functions for which it was created. This study has revealed the breach that led to the state occupation of the Cordovan army in this area by since mid-tenth century, from the social point of view and also from the structural one. It has been materially document this occupation after the restoration of Medinaceli, around 946, and succeeded after taking Sepulveda by Almanzor in 984, clearly differentiating their own building techniques currently implemented directly by foreign workshops, from Cordova and Toledo. The stratigraphic position of these factories has made it possible to identify earlier and later construction phases at this time. It has also been able to verify the initial hypothesis in relation with constructive knowledge loss during late antiquity and early medieval centuries in the studied area. Also ashlar, masonries as well as the brick production is recovered without resorting to a local technological substrate, fleetingly brought about by the Caliphate occupation. When the dismemberment of the Caliphate is produced from the year 1010 these techniques were abandoned again. In the late eleventh and early twelfth century these techniques are recovered from Romanesque and a new change came, also from the establishment of the diocesan parish network. In one historical period that has been hardly exploited by research, this thesis seeks not only to establish a working methodology but lay the groundwork for future studies, both from the particular point of view, paying special attention in the constructive and stratigraphic studies of each of the evidence collected , and additionally in other more transversal aspects.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta investigación aborda el estudio de la influencia de las uniones en el aislamiento acústico a ruido aéreo en los edificios y el análisis de las transmisiones indirectas producidas en particiones de dos hojas de ladrillo cerámico sobre bandas elásticas. La transmisión de ruido entre dos recintos separados por una partición se produce por dos vías: La vía directa a través del elemento que separa los dos recintos y la vía indirecta, a través de los elementos de flanco, como forjados, particiones, fachadas, etc. que conectados a dicho elemento de separación, vibran en presencia del campo acústico transmitiendo sus vibraciones al recinto receptor. Si las transmisiones indirectas son dominantes, el aislamiento acústico “in situ” puede ser menor que el esperado. El parámetro que expresa la atenuación acústica en las uniones es el índice de reducción vibracional en la unión o Kij. Éste parámetro se utiliza en los métodos de cálculo del aislamiento acústico a ruido aéreo, que permiten la justificación del cumplimiento de la normativa actual, el Documento Básico DB HR Protección frente al ruido del CTE. La determinación de los índices Kij de las uniones es una cuestión que debe abordarse de forma experimental. Existen diferentes expresiones empíricas obtenidas en varios laboratorios europeos que permiten el cálculo del índice Kij, pero no se han validado con ensayos realizados en soluciones habituales en la construcción española, como las estudiadas en este trabajo. El objetivo de este trabajo es la medida, análisis y cuantificación de las transmisiones indirectas producidas en las uniones de elementos de dos hojas de fábrica de ladrillo cerámico. Se ha recurrido a una campaña de ensayos en la que se reproducían las condiciones de un edificio real y se ha medido el aislamiento acústico a ruido aéreo y los índices Kij de diferentes configuraciones de uniones. Del análisis de los resultados, se demuestra que el aislamiento acústico a ruido aéreo depende de las uniones, pudiéndose obtener mejoras significativas al variar la forma de unión entre los elementos constructivos. Las mejoras de aislamiento acústico están relacionadas con un buen diseño de las uniones y con valores elevados del índice Kij. Este trabajo aporta valores experimentales de Kij para soluciones de fábrica de ladrillo y pone en discusión los valores teóricos que actualmente aparecen en la normativa vigente. ABSTRACT This research work deals with the effects of junction construction details on airborne sound insulation in buildings and the analysis of flanking transmissions across double ceramic brick walls with elastic interlayers. The sound transmission between two adjacent rooms comprises two paths: the direct path, caused by the incident sound on a separating wall, and the indirect path, through flanking elements connected to the separating wall, such as floors, internal walls, ceilings, etc. Flanking elements vibrate when excited in the sound field, thus transferring sound via structure borne to the receiving room. Dominant flanking transmissions can decrease the field sound insulation performance of the building. The vibration reduction index, Kij. expresses the acoustic attenuation of construction joints. This is an input parameter in the calculation models designed to estimate the airborne sound insulation between adjoining rooms in buildings. These models are used to comply with the acoustic requirements set by Basic Document DB HR Protection against noise included in the Spanish Building Code. The characterization of Kij. must be addressed experimentally by means of measurements. The available empirical Kij. formulae were developed in different European laboratories, but they have not been validated with standard tests performed on common Spanish walls, such as those studied in this work. The aim of this work is the measurement, analysis and quantification of indirect transmissions though joints of double ceramic brick walls. Airborne sound insulation tests and Kij measurements were performed in a laboratory which emulated the conditions of a real building. These tests were performed in different partitions whose joints were modified. It follows from the analysis of the results that airborne sound insulation depends strongly on the design of joints. Sound insulation improves when the joints between construction elements are modified to eliminate acoustic bridges. The increase in sound insulation corresponds to best practice design of joints and to high Kij values. This research work provides experimental Kij data of double ceramic brick walls and the results put in discussion the theoretical values set in the current Standards.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto trata sobre el estudio geotécnico realizado a causa del deslizamiento ocurrido entre los puntos kilométricos 159+750 y 159+950 de la carretera N-322 que une Bailén (Jaén) con Requena (Valencia). El principal objetivo del estudio es el de esclarecer los posibles factores que han favorecido el movimiento del terreno, así como delimitar sus dimensiones y forma aproximadas y con ello averiguar los parámetros resistentes con los que se produjo la rotura gracias a un análisis de estabilidad a posteriori. La metodología seguida comienza por la búsqueda de antecedentes y observación de datos de campo, para pasar a plantear la campaña de reconocimiento geotécnico. Los trabajos de campo resultan ser clave para el conocimiento de la profundidad a la que encuentra el plano deslizamiento y del terreno que se encuentra en el subsuelo de la zona. Resulta de especial interés la caracterización geotécnica realizada, debido a la gran cantidad de ensayos disponibles y a la existencia de diferentes métodos o ensayos con los que se ha obtenido la resistencia residual de la formación comúnmente conocida como “Margas azules del Guadalquivir”. Una vez obtenidos los parámetros geotécnicos de las unidades se efectúa un análisis retrospectivo, con el cual, gracias a los datos ya conocidos, se simula la situación de rotura, y se averiguan los parámetros resistentes de las unidades involucradas, imponiendo la condición de equilibrio límite. Se incluye un capítulo en el que se plantea una de las posibles soluciones para remediar la inestabilidad. Por último se estiman los costes de un estudio geotécnico de esta envergadura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hasta hace poco tiempo, la escalada estaba muy vinculada al montañismo y no se concebía la posibilidad de desarrollar métodos y formas de entrenamiento más allá de la propia actividad. Es la aparición de la escalada deportiva lo que permite una visión más relacionada con el deporte, visión que se afianza con la aparición de las competiciones a finales de los años ochenta. A partir de entonces se puede hablar de entrenamiento para escalada. Este entrenamiento se basa en el desarrollo de las capacidades físicas a nivel específico para la mejora del rendimiento. Un escalador debe entrenar en gran porcentaje la fuerza, la resistencia y la flexibilidad sobre el rocódromo para que la ganancia en estas capacidades sea de la forma más específica posible y transferible al gesto competitivo. Otras formas de entrenar, como el aeróbico general o la musculación se ven como trabajo complementario. Según el tipo de escalada deberán desarrollarse distintos tipos de fuerza y de resistencia, aunque todos los tipos deben trabajarse en el proceso de entrenamiento. En la competición de dificultad, las vías energéticas predominantes son las anaeróbica láctica (tolerancia al lactato) y la aeróbica (potencia). El proceso de entrenamiento debe tender al desarrollo de estas, como al desarrollo de la fuerza específica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pinus pinaster Ait. es la conífera con mayor área de distribución en la Península Ibérica y es, a día de hoy, la única especie resinada en nuestro país. La inducción del flujo de resina al exterior para su recolección a través de distintos tipos de heridas ha sido practicada desde hace miles de años por distintas culturas. En todos los casos, las técnicas desarrolladas se basan en la estimulación del característico sistema de defensa de las pináceas. En los últimos siete años se viene observando una tendencia de incremento sustancial de la superficie resinada en España, acompañada por avances tecnológicos dirigidos a la mecanización y mejora de estimulantes. El aprovechamiento resinero se perfila como un sector estratégico en la generación de empleo rural y la conservación de ecosistemas. La industria resinera demanda métodos de extracción más eficaces, una selvicultura adecuada y actualizada, y condiciones laborales de los resineros más dignas con objeto de llegar a ser competitiva en el mercado internacional. Este trabajo se centra en ampliar el conocimiento sobre el sistema de defensa de P. pinaster, concretamente sobre las estructuras y procesos que pueden afectar a la producción de resina. Se analizan las relaciones entre las características anatómicas del xilema, destacando las relacionadas con los canales resiníferos, las variables dendrométricas y dasométricas de la masa y el flujo de resina (objetivo 1). Se estudia cómo estas relaciones son moduladas por las heridas de resinación dependiendo de la técnica de resinación aplicada (objetivo 2), el clima y el balance hídrico del suelo (objetivo 3). El material vegetal, las muestras de suelo y los datos de producción de resina y climáticos usados en esta tesis han sido recogidos en tres montes de utilidad pública; MUP 101 en Armuña, MUP 108 en Melque de Cercos y MUP 117 en Nieva (en esta última solo se recogieron los datos de producciones), todos ellos pinares monoespecíficos de P. pinaster localizados en la denominada Tierra de Pinares Segoviana. En los árboles de nuestro estudio se han aplicado cuatro métodos de resinación: método de pica de corteza con estimulante y método mecanizado con estimulante, ambos en sentido ascendente y descendente. En los trabajos realizados para el análisis de la influencia de la anatomía constitutiva en la producción de resina (objetivo 1) y el efecto del clima (objetivo 3), se obtuvieron muestras del xilema de 26 árboles resinados en Melque de Cercos y Armuña y 12 árboles control sin resinar. Para caracterizar los pies estudiados, se midió la altura, diámetro normal y porcentaje de copa viva. Las muestras de tejido fueron recogidas en una zona del tronco a una distancia del límite de la herida considerada en la bibliografía como no afectada (anatomía constitutiva). Para el análisis de las alteraciones anatómicas inducidas por la herida (objetivo 2), se recogieron muestras en ocho de los individuos en los que se habían realizado los distintos métodos de resinación descritos y en cinco árboles control. Se obtuvieron ocho muestras de tejido distribuidas en la parte superior, inferior, lateral y centro de la herida de cada uno de los árboles resinados. Para establecer las diferencias en la producción de resina según el método de resinación, se analizaron las producciones de 561 árboles resinados en 2012 con estos cuatro métodos en Nieva. Los principales resultados de estos trabajos muestran que la producción de resina está ligada al volumen de canales (axiales y radiales) y a la frecuencia de canales radiales existentes en el árbol antes de efectuar ninguna herida (sistema constitutivo). De esta manera, los árboles grandes productores de resina mostraron una red de canales más densa que aquellos con producciones medias. Una vez realizada la herida de resinación, observamos una disminución del ancho del anillo de crecimiento y del tamaño medio de los canales axiales a la vez que se incrementaba la frecuencia y área ocupada por mm2 de anillo de estos canales. Estos cambios perduraron en el árbol durante al menos tres años y fueron distintos dependiendo de la localización en el entorno de la herida y del método de resinación. Las respuestas más intensas a la herida se observaron el año siguiente a la realización de la misma, en dirección axial, para las distancias más próximas al límite de la herida y para los métodos de resinación en sentido ascendente. Además, se ha constatado que como consecuencia de las heridas de resinación se produjeron cambios en la anatomía del xilema en zonas alejadas de la herida, tanto en el año de la herida como años posteriores. Es decir, se observó una respuesta sistémica del árbol. Respecto al papel del clima como regulador de la respuesta del árbol, se ha evidenciado que la temperatura, la radiación y la ETP influyeron en la producción de resina, no solo durante la campaña de resinación, sino también durante los meses anteriores. El déficit hídrico favoreció la producción y la formación de canales axiales pero, a partir de un determinado umbral, esa relación se invirtió y las lluvias estivales incrementaron la producción. Algunas de estas variables climáticas se asociaron a cambios en el tamaño y frecuencia de las estructuras secretoras, las cuales posiblemente modulan la respuesta defensiva de la planta. La dendrometría del árbol (evaluada a través del diámetro normal, altura y porcentaje de copa viva), la densidad de la masa y el tipo de suelo influyeron en el potencial de producción de resina de P. pinaster. Árboles más vigorosos, parcelas con menores densidades y suelos con más capacidad para la retención de agua y nutrientes presentaron producciones mayores. Estos trabajos se complementan en anexos con una caracterización del sistema socio-ecológico del pinar en resinación. En ese trabajo se identifican sus potenciales servicios ecosistémicos y se evalúa su grado de vinculación con el aprovechamiento resinero con objeto de valorar su funcionalidad y aproximar una valoración económica de modo que sea posible apreciar la importancia económica de los mismos. Para concluir, podemos resaltar que son necesarios más trabajos de carácter científico para avanzar en la comprensión de los procesos anatómicos y fisiológicos que regulan la secreción de resina en P. pinaster y sus interacciones con el medio. Esto permitiría avances certeros hacia el desarrollo de métodos de extracción más eficaces, una selvicultura óptima, el reconocimiento de los beneficios socio-ecológicos y económicos del aprovechamiento y, de manera general, una bibliografía amplia y fiable para la consulta y desarrollo de futuras mejoras que posibiliten la reactivación y conservación de la resinación como aprovechamiento rentable. ABSTRACT Pinus pinaster Ait. is the most widespread conifer in Spain and is now the only species tapped for its oleoresin. External induction of resin secretion, based on the defense system of Pinus trees, has been performed by humans since Classical times through various methods. The socio-economic implication of this practice in Spain justifies a new approach to improve tapping methodology and understand the effects of this activity on the tree. In the last five years, sharp increases in the price of natural resins, accompanied by technological advances directed toward mechanization, have made resin tapping a strategic activity for rural development and forest conservation. The resin industry demands more efficient tapping methods and forest management plans as a way to increase competitiveness in a global market. In this way, this work focuses on the study of the defense system of P. pinaster, with the aim to understand the effects of anatomical and physiological characteristics and environmental conditions on resin yield. The relationships between anatomical variables -with special focus on resin canals-, dendrometric and dasometric variables, and resin yield will be evaluated (objective 1). The tapping wound effects (objective 2) and the intra- and inter-annual variability of climate conditions and soil water availability influence (objective 3) on resin yield will be also studied. The plant and soil material and the resin yield and climatic data used in this thesis have been collected in stands of three public forests of P. pinaster; Armuña, Melque de Cercos and Nieva, located in Segovia (Central Spain). Trees were tapped using two different methods: mechanized or traditional tool, in both upwards and downwards direction. Twenty-six tapped trees of contrasting resin yield classes and twelve non-tapped (control) trees, growing in two locations (Armuña y Melque de Cercos) with the same climate but different stand density and soil characteristics, were selected for studying the role of tree size, xylem anatomy at distal parts aside from the tapping wound (objective 1) and climate influence (objective 3) on resin yield. Concerning the tree defenses induced by the tapping wound (objective 2), the xylem of eight trees, tapped with the two described methods in both upwards and downwards direction, were analyzed. From each tapped tree, eight cores were collected at different locations and varying distances from the tapping wound. In each core, a histological analysis was made. Growth ring width, earlywood and latewood width, and axial canal frequency, area, mean size and location were measured. The effect of the tapping method on resin yield was assessed in 561 P. pinaster tapped trees in a stand in Nieva. In tissues not affected by the tapping wound, the frequency of radial resin canals and the total volume of resin canals were related to resin yield. The frequency of radial canals and the resin yield were strongly related to tree diameter and percentage of live crown. High area of axial resin canals per mm2 was related to high yielding trees, but only in the location with higher plant density and poorer soil quality. In tapped trees, an increase in axial canal frequency and area was found during the three years following the start of tapping activity, suggesting that canal formation is a systemic induced response to wounding. The highest mean annual resin yield was found using the traditional tool in upwards direction, which also induced the highest increase in axial canal frequency and area. The lowest yield was found for mechanized tapping, which showed no differences between the upwards and downwards directions. The strongest induction of systemic induced responses in terms of resin canal frequency and area was detected one year after tapping for upwards tapping. This suggests the involvement of signaling processes that spread mainly upwards, and the importance of adaptive processes as a defense against periodic insect attacks. Intra-annual variation in resin yield was strongly correlated with temperature, solar radiation, potential evapotranspiration and soil water deficit. Inter-annual variation in resin yield and resin canal abundance were correlated with temperature and water deficit in spring, but above a certain threshold of cumulated water deficit in summer rainfall favored resin yield. Under adverse climate scenarios where resource optimization is desirable, a reduced tapping season during the warmest months (June–September) would be advisable, assuming a very small production loss relative to traditional tapping season. Similarly, in years with a rainy summer and/or dry spring, a slightly longer tapping season could be suggested, as resin yield increases after these events. Tree diameter and percentage of live crown, and radial resin canal frequency could be useful criteria for estimating resin yields in P. pinaster. Vigorous trees in lower density stands and growing up in good quality soils will be the most productive. These conclusions could be applied to improve tapping management and breeding programs. These works are complemented with socio-ecological characterization, the identification of the main ecosystem services and an assessment of the possible economic impact derived from the tapping practice. To conclude, more scientific studies are necessary for understanding the anatomical and physiological processes behind resin synthesis and their interactions with the environment. This would afford further progresses towards an extensive and reliable bibliography and improved tapping methods and optimal selvicultural guide lines.