84 resultados para 120804 Fundamentos de la probabilidad
Resumo:
El objetivo de este estudio es definir una magnitud que caracterice la susceptibilidad a daños mecánicos en frutos de hueso (melocotón cv. Caterina y Sudanell y albaricoque cv Búlida y Pepito). La aparición de magulladura en frutos de hueso está más relacionada con la deformación máxima alcanzada durante una carga de compresión (indicativo de su respuesta mecánica) que con el nivel de carga (fuerza) en sí mismo. La aparición de magulladura va acompañada de elevadas superficies de daño lo que hace que los frutos al magullarse queden directamente fuera del rango de aceptación comunitario (0.5cm2). Este hecho indica la necesidad de caracterizar la susceptibilidad a magulladura como probabilidad de daño. Este estudio indica la posibilidad de establecer la probabilidad de daño mediante la combinación de la respuesta mecánica del fruto (deformación máxima) y el nivel de carga (fuerza). Asimismo la respuesta mecánica se puede establecer instrumentalmente mediante la "dureza al tacto" y la tipología de comportamiento reológico.
Resumo:
El libro comienza haciendo referencia a la seguridad en los sistemas estructurales, centrándose específicamente en las incertidumbres, la fiabilidad estructural y los métodos de comprobación de la seguridad. Posteriormente se tratan algunos métodos de nivel II utilizados para valorar la probabilidad de fallo; así, se hace referencia al índice de fiabilidad en general y, en particular al de Cornell y al de Hasofer y Lind; respecto a los métodos de cálculo del índice de fiabilidad, se estudia el método de los momentos de segundo orden y el método de las estimaciones puntuales. Del método de los momentos de segundo orden se analizan las funciones de fallo no lineales, esquema iterativo, las variables correlacionadas y la transformación de variables aleatorias. El capítulo destinado a las normas basadas en los conceptos de fiabilidad estructural analiza la relación entre los métodos de comprobación de la seguridad nivel I y nivel ll, la obtención de los coeficientes de ponderación mediante el método de los momentos de segundo orden y los formatos de cálculo en valores medios y valores característicos para terminar con la aplicación de a un caso práctico. Finalmente, se realiza un estudio de niveles de seguridad en túneles, para lo que se realiza una descripción física del problema, se plantea un modelo matemático de cálculo y se realiza un análisis de la seguridad así como la caracterización de variables.
Resumo:
RESUMEN El apoyo a la selección de especies a la restauración de la vegetación en España en los últimos 40 años se ha basado fundamentalmente en modelos de distribución de especies, también llamados modelos de nicho ecológico, que estiman la probabilidad de presencia de las especies en función de las condiciones del medio físico (clima, suelo, etc.). Con esta tesis se ha intentado contribuir a la mejora de la capacidad predictiva de los modelos introduciendo algunas propuestas metodológicas adaptadas a los datos disponibles actualmente en España y enfocadas al uso de los modelos en la selección de especies. No siempre se dispone de datos a una resolución espacial adecuada para la escala de los proyectos de restauración de la vegetación. Sin embrago es habitual contar con datos de baja resolución espacial para casi todas las especies vegetales presentes en España. Se propone un método de recalibración que actualiza un modelo de regresión logística de baja resolución espacial con una nueva muestra de alta resolución espacial. El método permite obtener predicciones de calidad aceptable con muestras relativamente pequeñas (25 presencias de la especie) frente a las muestras mucho mayores (más de 100 presencias) que requería una estrategia de modelización convencional que no usara el modelo previo. La selección del método estadístico puede influir decisivamente en la capacidad predictiva de los modelos y por esa razón la comparación de métodos ha recibido mucha atención en la última década. Los estudios previos consideraban a la regresión logística como un método inferior a técnicas más modernas como las de máxima entropía. Los resultados de la tesis demuestran que esa diferencia observada se debe a que los modelos de máxima entropía incluyen técnicas de regularización y la versión de la regresión logística usada en las comparaciones no. Una vez incorporada la regularización a la regresión logística usando penalización, las diferencias en cuanto a capacidad predictiva desaparecen. La regresión logística penalizada es, por tanto, una alternativa más para el ajuste de modelos de distribución de especies y está a la altura de los métodos modernos con mejor capacidad predictiva como los de máxima entropía. A menudo, los modelos de distribución de especies no incluyen variables relativas al suelo debido a que no es habitual que se disponga de mediciones directas de sus propiedades físicas o químicas. La incorporación de datos de baja resolución espacial proveniente de mapas de suelo nacionales o continentales podría ser una alternativa. Los resultados de esta tesis sugieren que los modelos de distribución de especies de alta resolución espacial mejoran de forma ligera pero estadísticamente significativa su capacidad predictiva cuando se incorporan variables relativas al suelo procedente de mapas de baja resolución espacial. La validación es una de las etapas fundamentales del desarrollo de cualquier modelo empírico como los modelos de distribución de especies. Lo habitual es validar los modelos evaluando su capacidad predictiva especie a especie, es decir, comparando en un conjunto de localidades la presencia o ausencia observada de la especie con las predicciones del modelo. Este tipo de evaluación no responde a una cuestión clave en la restauración de la vegetación ¿cuales son las n especies más idóneas para el lugar a restaurar? Se ha propuesto un método de evaluación de modelos adaptado a esta cuestión que consiste en estimar la capacidad de un conjunto de modelos para discriminar entre las especies presentes y ausentes de un lugar concreto. El método se ha aplicado con éxito a la validación de 188 modelos de distribución de especies leñosas orientados a la selección de especies para la restauración de la vegetación en España. Las mejoras metodológicas propuestas permiten mejorar la capacidad predictiva de los modelos de distribución de especies aplicados a la selección de especies en la restauración de la vegetación y también permiten ampliar el número de especies para las que se puede contar con un modelo que apoye la toma de decisiones. SUMMARY During the last 40 years, decision support tools for plant species selection in ecological restoration in Spain have been based on species distribution models (also called ecological niche models), that estimate the probability of occurrence of the species as a function of environmental predictors (e.g., climate, soil). In this Thesis some methodological improvements are proposed to contribute to a better predictive performance of such models, given the current data available in Spain and focusing in the application of the models to selection of species for ecological restoration. Fine grained species distribution data are required to train models to be used at the scale of the ecological restoration projects, but this kind of data are not always available for every species. On the other hand, coarse grained data are available for almost every species in Spain. A recalibration method is proposed that updates a coarse grained logistic regression model using a new fine grained updating sample. The method allows obtaining acceptable predictive performance with reasonably small updating sample (25 occurrences of the species), in contrast with the much larger samples (more than 100 occurrences) required for a conventional modeling approach that discards the coarse grained data. The choice of the statistical method may have a dramatic effect on model performance, therefore comparisons of methods have received much interest in the last decade. Previous studies have shown a poorer performance of the logistic regression compared to novel methods like maximum entropy models. The results of this Thesis show that the observed difference is caused by the fact that maximum entropy models include regularization techniques and the versions of logistic regression compared do not. Once regularization has been added to the logistic regression using a penalization procedure, the differences in model performance disappear. Therefore, penalized logistic regression may be considered one of the best performing methods to model species distributions. Usually, species distribution models do not consider soil related predictors because direct measurements of the chemical or physical properties are often lacking. The inclusion of coarse grained soil data from national or continental soil maps could be a reasonable alternative. The results of this Thesis suggest that the performance of the models slightly increase after including soil predictors form coarse grained soil maps. Model validation is a key stage of the development of empirical models, such as species distribution models. The usual way of validating is based on the evaluation of model performance for each species separately, i.e., comparing observed species presences or absence to predicted probabilities in a set of sites. This kind of evaluation is not informative for a common question in ecological restoration projects: which n species are the most suitable for the environment of the site to be restored? A method has been proposed to address this question that estimates the ability of a set of models to discriminate among present and absent species in a evaluation site. The method has been successfully applied to the validation of 188 species distribution models used to support decisions on species selection for ecological restoration in Spain. The proposed methodological approaches improve the predictive performance of the predictive models applied to species selection in ecological restoration and increase the number of species for which a model that supports decisions can be fitted.
Resumo:
La Aeroelasticidad fue definida por Arthur Collar en 1947 como "el estudio de la interacción mutua entre fuerzas inerciales, elásticas y aerodinámicas actuando sobre elementos estructurales expuestos a una corriente de aire". Actualmente, esta definición se ha extendido hasta abarcar la influencia del control („Aeroservoelasticidad‟) e, incluso, de la temperatura („Aerotermoelasticidad‟). En el ámbito de la Ingeniería Aeronáutica, los fenómenos aeroelásticos, tanto estáticos (divergencia, inversión de mando) como dinámicos (flameo, bataneo) son bien conocidos desde los inicios de la Aviación. Las lecciones aprendidas a lo largo de la Historia Aeronáutica han permitido establecer criterios de diseño destinados a mitigar la probabilidad de sufrir fenómenos aeroelásticos adversos durante la vida operativa de una aeronave. Adicionalmente, el gran avance experimentado durante esta última década en el campo de la Aerodinámica Computacional y en la modelización aeroelástica ha permitido mejorar la fiabilidad en el cálculo de las condiciones de flameo de una aeronave en su fase de diseño. Sin embargo, aún hoy, los ensayos en vuelo siguen siendo necesarios para validar modelos aeroelásticos, verificar que la aeronave está libre de inestabilidades aeroelásticas y certificar sus distintas envolventes. En particular, durante el proceso de expansión de la envolvente de una aeronave en altitud/velocidad, se requiere predecir en tiempo real las condiciones de flameo y, en consecuencia, evitarlas. A tal efecto, en el ámbito de los ensayos en vuelo, se han desarrollado diversas metodologías que predicen, en tiempo real, las condiciones de flameo en función de condiciones de vuelo ya verificadas como libres de inestabilidades aeroelásticas. De entre todas ellas, aquella que relaciona el amortiguamiento y la velocidad con un parámetro específico definido como „Margen de Flameo‟ (Flutter Margin), permanece como la técnica más común para proceder con la expansión de Envolventes en altitud/velocidad. No obstante, a pesar de su popularidad y facilidad de aplicación, dicha técnica no es adecuada cuando en la aeronave a ensayar se hallan presentes no-linealidades mecánicas como, por ejemplo, holguras. En particular, en vuelos de ensayo dedicados específicamente a expandir la envolvente en altitud/velocidad, las condiciones de „Oscilaciones de Ciclo Límite‟ (Limit Cycle Oscillations, LCOs) no pueden ser diferenciadas de manera precisa de las condiciones de flameo, llevando a una determinación excesivamente conservativa de la misma. La presente Tesis desarrolla una metodología novedosa, basada en el concepto de „Margen de Flameo‟, que permite predecir en tiempo real las condiciones de „Ciclo Límite‟, siempre que existan, distinguiéndolas de las de flameo. En una primera parte, se realiza una revisión bibliográfica de la literatura acerca de los diversos métodos de ensayo existentes para efectuar la expansión de la envolvente de una aeronave en altitud/velocidad, el efecto de las no-linealidades mecánicas en el comportamiento aeroelástico de dicha aeronave, así como una revisión de las Normas de Certificación civiles y militares respecto a este tema. En una segunda parte, se propone una metodología de expansión de envolvente en tiempo real, basada en el concepto de „Margen de Flameo‟, que tiene en cuenta la presencia de no-linealidades del tipo holgura en el sistema aeroelástico objeto de estudio. Adicionalmente, la metodología propuesta se valida contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab. Para ello, se plantean las ecuaciones aeroelásticas no-estacionarias de un perfil bidimensional en la formulación espacio-estado y se incorpora la metodología anterior a través de un módulo de análisis de señal y otro módulo de predicción. En una tercera parte, se comparan las conclusiones obtenidas con las expuestas en la literatura actual y se aplica la metodología propuesta a resultados experimentales de ensayos en vuelo reales. En resumen, los principales resultados de esta Tesis son: 1. Resumen del estado del arte en los métodos de ensayo aplicados a la expansión de envolvente en altitud/velocidad y la influencia de no-linealidades mecánicas en la determinación de la misma. 2. Revisión de la normas de Certificación Civiles y las normas Militares en relación a la verificación aeroelástica de aeronaves y los límites permitidos en presencia de no-linealidades. 3. Desarrollo de una metodología de expansión de envolvente basada en el Margen de Flameo. 4. Validación de la metodología anterior contra un modelo aeroelástico bidimensional paramétrico e interactivo programado en Matlab/Simulink. 5. Análisis de los resultados obtenidos y comparación con resultados experimentales. ABSTRACT Aeroelasticity was defined by Arthur Collar in 1947 as “the study of the mutual interaction among inertia, elastic and aerodynamic forces when acting on structural elements surrounded by airflow”. Today, this definition has been updated to take into account the Controls („Aeroservoelasticity‟) and even the temperature („Aerothermoelasticity‟). Within the Aeronautical Engineering, aeroelastic phenomena, either static (divergence, aileron reversal) or dynamic (flutter, buzz), are well known since the early beginning of the Aviation. Lessons learned along the History of the Aeronautics have provided several design criteria in order to mitigate the probability of encountering adverse aeroelastic phenomena along the operational life of an aircraft. Additionally, last decade improvements experienced by the Computational Aerodynamics and aeroelastic modelization have refined the flutter onset speed calculations during the design phase of an aircraft. However, still today, flight test remains as a key tool to validate aeroelastic models, to verify flutter-free conditions and to certify the different envelopes of an aircraft. Specifically, during the envelope expansion in altitude/speed, real time prediction of flutter conditions is required in order to avoid them in flight. In that sense, within the flight test community, several methodologies have been developed to predict in real time flutter conditions based on free-flutter flight conditions. Among them, the damping versus velocity technique combined with a Flutter Margin implementation remains as the most common technique used to proceed with the envelope expansion in altitude/airspeed. However, although its popularity and „easy to implement‟ characteristics, several shortcomings can adversely affect to the identification of unstable conditions when mechanical non-linearties, as freeplay, are present. Specially, during test flights devoted to envelope expansion in altitude/airspeed, Limits Cycle Oscillations (LCOs) conditions can not be accurately distinguished from those of flutter and, in consequence, it leads to an excessively conservative envelope determination. The present Thesis develops a new methodology, based on the Flutter Margin concept, that enables in real time the prediction of the „Limit Cycle‟ conditions, whenever they exist, without degrading the capability of predicting the flutter onset speed. The first part of this Thesis presents a review of the state of the art regarding the test methods available to proceed with the envelope expansion of an aircraft in altitude/airspeed and the effect of mechanical non-linearities on the aeroelastic behavior. Also, both civil and military regulations are reviewed with respect aeroelastic investigation of air vehicles. The second part of this Thesis proposes a new methodology to perform envelope expansion in real time based on the Flutter Margin concept when non-linearities, as freeplay, are present. Additionally, this methodology is validated against a Matlab/Slimulink bidimensional aeroelastic model. This model, parametric and interactive, is formulated within the state-space field and it implements the proposed methodology through two main real time modules: A signal processing module and a prediction module. The third part of this Thesis compares the final conclusions derived from the proposed methodology with those stated by the flight test community and experimental results. In summary, the main results provided by this Thesis are: 1. State of the Art review of the test methods applied to envelope expansion in altitude/airspeed and the influence of mechanical non-linearities in its identification. 2. Review of the main civil and military regulations regarding the aeroelastic verification of air vehicles and the limits set when non-linearities are present. 3. Development of a methodology for envelope expansion based on the Flutter Margin concept. 4. A Matlab/Simulink 2D-[aeroelastic model], parametric and interactive, used as a tool to validate the proposed methodology. 5. Conclusions driven from the present Thesis and comparison with experimental results.
Resumo:
Los cortes de alimentación eléctrica del pasado verano han enfrentado a grandes masas de población con la estupefacción que se siente si hay accidentes en sistemas cuya fiabilidad es tan grande que el uso consuetudinario nos ha acostumbrado a indignarnos si la probabilidad de fallo se convierte en certeza y descubrimos que esa fiabilidad no es infinita. Quiero decir con ello que hemos ido incorporando a nuestros hábitos las ventajas que produce el uso de nuevas aplicaciones de los avances científicos y técnicos que la ingeniería, siguiendo su tradición de progreso continuo y protagonismo público nulo, ha ido poniendo a nuestra disposición y, como pasa siempre, solo valoramos lo que damos por descontado que tenemos cuando dejamos de poseerlo.
Resumo:
La teca (Tectona grandis L.f.) ha sido tradicionalmente considerada como una madera preciosa en los países del SE Asiático, de donde es originaria, pero durante las últimas décadas ha alcanzado especial relevancia en el sector internacional de las maderas tropicales duras de buena calidad. La especie ha sido ampliamente establecida en América Central, donde tiene una gran importancia socioeconómica, tanto por el impacto de las grandes empresas multinacionales que gestionan grandes plantaciones en la región, como por el gran número de pequeños y medianos propietarios que han elegido esta especie para reforestar sus tierras. Pese a la gran importancia de esta especie, se ha desarrollado relativamente poca investigación acerca de su nutrición y de la gestión del suelo necesaria para su establecimiento y mantenimiento en condiciones sostenibles y productivas. En la presente Tesis Doctoral, tras realizar una amplia revisión bibliográfica, se caracterizan los suelos y la nutrición de las plantaciones de teca en América Central y se proponen varias herramientas para la mejora de su gestión. Las plantaciones de teca de América Central presentan habitualmente deficiencias de K y P, además de algunos problemas de acidez ocasionales. Estos se originan, principalmente, por la mala selección de sitio que se realizó en las últimas dos décadas del siglo XX y por el establecimiento de plantaciones de teca por pequeños propietarios en terrenos que no tienen características propicias para la especie. Además, estos problemas comunes relativos a la baja disponibilidad de P y de K en el suelo son causantes de las relativamente bajas concentraciones foliares de estos elementos (0,88±0,07% K y 0,16±0,04% P) encontradas en plantaciones de teca características de la región. Se presentan varios modelos estadísticos que permiten a los gestores: (a) usarlos como referencia para la interpretación de análisis foliares, ya que ofrecen valores que se consideran característicos de plantaciones de teca con un buen estado nutricional; (b) estimar la cantidad de nutrientes acumulados en la biomasa aérea de sus plantaciones y, sobre todo, su extracción a través de la madera en un aprovechamiento forestal, bien sea una clara o la corta final. La gran acumulación de N, P y K en plantaciones de teca ha de ser considerada como un factor fundamental en su gestión. Además, P y K adquieren mayor relevancia aún ya que su extracción del sistema a través de la madera y su escasa disponibilidad en los suelos hacen que se presente un importante desequilibrio que pone en riesgo la sostenibilidad del sistema. En ese sentido, cambiar la época de cosecha, de la actual (en Enero-Mayo) a Septiembre o Diciembre, puede reducir entre un 24 y un 28% la salida de N asociada a la extracción de madera, un 29% la de P y entre un 14 y un 43% la de K. Se estima que la concentración foliar de P es un factor limitante de la productividad de plantaciones de teca en América Central, proponiéndose un nivel crítico de 0,125%. Además, la teca presenta una tolerancia muy baja a suelos salinos, tendencia que no había sido señalada hasta el momento, siendo muy alta la probabilidad de que la plantación tenga un crecimiento lento o muy lento cuando la Saturación de Na es mayor de 1,1%. Por otro lado, se confirma que K es uno de los elementos clave en la nutrición de las plantaciones de teca en la región centroamericana, proponiéndose un nivel crítico provisional de 3,09% para la Saturación de K, por encima del cual es muy probable que la plantación tenga un crecimiento muy alto. Se ha comprobado que las técnicas estadísticas de análisis multivariante pueden ser usadas como herramientas para agrupar los rodales en base a sus similitudes en cuanto a la fertilidad del suelo y mejorar así el diseño de planes de fertilización en plantaciones con una superficie relativamente grande. De esta manera, se pueden ajustar planes de fertilización más eficientes a escala de grupos de rodales, como un primer paso hacia la selvicultura de precisión, intensificando y diversificando la gestión en función de las diferencias edáficas. Finalmente, aunque los análisis foliares y de suelos indiquen la existencia de deficiencias nutricionales, la fertilización de las plantaciones no siempre va a producir efectos positivos sobre su crecimiento si no se diseña adecuadamente teniendo en cuenta varios factores que pueden estar influyendo negativamente en dicha respuesta, como la densidad de las plantaciones (sinergias con la programación de los clareos y claras) y la elección de la dosis y del producto a aplicar (habitualmente dosis bajas de N-P-K en lugar de incluir otros nutrientes como Mg, B y Zn o usar otros productos como micorrizas, biofertilizantes etc…). ABSTRACT Teak (Tectona grandis L.f.) has been traditionally considered as a precious wood in SE Asia, where it is indigenous. However, during recent decades the species has reached worldwide relevance in the tropical high quality hardwood sector. Teak has been widely established in Central America, where it has become a key species in the forest sector due to its socioeconomic impact, either because of the big-scale plantations of transnational companies and the abundant small-scale plantations established by many farmers. Despite the relevance of the species, little research has been carried out regarding its soil fertility and nutrition management, a key issue both for sustainability and productivity. The present Thesis performs a literature review to this respect, characterize the soil fertility and the nutrition of teak plantations of Central America and propose several management tools. Soil deficiencies of K and P are usually found in teak plantations in Central America, in addition to occasional acidity problems. These problems are mainly derived of (a) a poor site selection performed during 80s and 90s; and (b) small-scale plantations by farmers in sites which are not adequate for the species. These common soil fertility problems related with P and K soil availability are probably the cause of the relatively low P and K foliar concentration (0,88±0,07% K y 0,16±0,04% P) found in representative teak plantations of the region. Several statistical models are proposed, which allow forest managers to: (a) use them as a reference for foliar analysis interpretation, as they show values considered as representative for teak plantations with an adequate nutritional status in the region; (b) estimate the amount of nutrients accumulated in the aerial biomass of the plantations and, especially, the amount of them which are extracted from the systems as wood is harvested in thinning or final clearcuts. The accumulation of N, P and K result in a key factor for teak management in the region. This turns out to be especially relevant for the P and K because their high output rate by timber extraction and the low soil availability result in an important unbalance which constitutes a risk regarding the sustainability of the system. To this respect, modifying the harvesting time from the usual right now (January-May, business as usual scenario) to September or December (proposed alternatives) can reduce between 24 and 28% the N output associated to timber extraction, 29% the P output and between 14 and 43% the K. Foliar P concentration is a main limiting factor for teak plantations productivity in Central America and a 0.125% critical level is proposed. In addition, the results show a very low tolerance for soil salinity, tendency which was not previously reported. Hence, the probability of teak plantations to have low or very low Site Index is high when Na Saturation is higher than 1.1%. On the other hand, K is confirmed as one of the key nutrients regarding teak nutrition in Central America and a 3.09% provisional critical level is proposed for K Saturation; when values are above this level the probability of having very high Site Index is high. Multivariate statistical analyses have been successfully tested to be used as tools to group forest stands according to their soil fertility similarities. Hence, more efficient fertilization plans can be designed for each group of stands, intensifying and diversifying nutritional management according to soil fertility differences. This methodology, which is considered as a first step towards precision forestry, is regarded as helpful tool to design fertilization plans in big scale plantations. Finally, even though foliar and soil analysis would point out some nutritional deficiencies in a forest stand, the results show how the fertilization is not always going to have a positive effect over forest growth if it is not adequately designed. Some factors have been identified as determinants of tree response to fertilization: density (synergisms between fertilization and thinning scheduling) and the appropriate selection of dosages and product (usually low dosages are applied and N-P-K is preferred instead of applying other nutrients such as Mg, B or Zn or using other alternatives such as mycorrhizas or biofertilizers).
Resumo:
El presente proyecto, enmarcado dentro del Programa INIAP/SENESCYT “Conservación y Uso Sostenible de Recursos Genéticos Forestales en áreas críticas de bosques húmedos y secos de los Andes y Amazonía”, a cargo del Departamento de Forestería del INIAP, nace de la necesidad de generar información sobre la pérdida de la biodiversidad de diversos ecosistemas de Ecuador. En concreto, de aquellos bosques de gran complejidad y elevada susceptibilidad como son los que se encuentran en la sub-cuenca del río Quijos: bosques húmedos de la región amazónica, fuentes de biodiversidad y sumideros de carbono, que se están viendo fuertemente amenazados por el cambio climático y por el cambio en el uso del suelo derivada de la intensa actividad humana que sufre la región desde hace décadas. Debido a esta complejidad, el proyecto se centra en las dos especies forestales más valoradas por los habitantes, aplicando metodología de Diagnóstico Rural Participativo, haciéndoles partícipes de esta forma de las decisiones y actuaciones de su región. Una vez determinadas las dos especies a estudiar (Cedrela montana y Erythrina edulis), se evaluó qué efectos tendrán las principales amenazas: el cambio climático y el cambio de uso del suelo, en las poblaciones de ambas. Para el estudio climático se han utilizado Modelos de Distribución de Especie, en concreto el programa Maxent, con el que se han modelizado dos situaciones: la probabilidad de idoneidad de hábitat actual y la probabilidad de idoneidad de hábitat futuro. Por comparación de ambos mapas se obtuvo una primera visión de cómo podría variar para el año 2070 la distribución potencial de ambas especies debido al cambio de las condiciones climáticas. Así mismo, se pudo determinar cuál de estas variables climáticas influye más en el modelo y, por lo tanto, en la distribución potencial. En el caso de Cedrela montana, en el año 2070 se prevé la desaparición total de hábitat idóneo en la zona de estudio, mientras que en Erythrina edulis, la reducción prevista es también casi total, de un 99,99%. A continuación, aplicando los Criterios de la Lista Roja de la UICN sobre los modelos, se ha determinado el estado de conservación de ambas especies, obteniendo el grado de amenaza que soportan, que en ambos casos es En Peligro Crítico (CR). Para el análisis del efecto del uso del suelo se procedió a la realización de muestreos en zonas con distinto grado antropogénico: el bosque natural y el bosque intervenido. Mediante comparación de las abundancias relativas y las distintas distribuciones diamétricas se han sacado conclusiones de cómo afecta la actividad humana a las poblaciones de ambas especies. Cedrela montana, por su excelente condición de maderable, desaparece en los bosques intervenidos y, si permanece, lo hace sólo con representación de diámetros bastante inferiores al de cortabilidad. Sin embargo, Erythrina edulis, por su condición de comestible, parece verse incluso beneficiada por la acción antrópica: desaparece con la eliminación del bosque, pero parece mantener o incrementar su abundancia en bosque intervenidos, en los que la curva de distribución diamétrica de la especie parece no variar con respecto al bosque primario. Con estas actividades se consigue comprender un poco más cómo sería la evolución de estas especies y el grado de amenaza a el que están sometidas, lo que constituye una fuente valiosa de información en la que basar futuras actividades de conservación de la biodiversidad y manejo sostenible del suelo.
Resumo:
La consideración de los efectos producidos por la colisión de un barco con una pila de un puente sobre el Estrecho de Gibraltar constituye una exigencia en un diseño adecuado de la estructura. En efecto, la existencia de un tráfico marítimo interno - con barcos que pueden alcanzar las 500.000 toneladas - las importantes corrientes que se generan en la zona, representan factores que, incluso con un estricta regulación y control de la navegación en el Estrecho, elevan la probabilidad de ocurrencia de este suceso. Sin embargo, una comprobación adecuada de la integridad estructural del puente bajo la acción del choque de un barco debería llevarse a cabo únicamente en estados avanzados del proyecto. Un cálculo de este tipo precisa un esfuerzo computacional muy importante y, por otra parte, las consecuencias del choque, raras veces modifican los parámetros significativos del diseño y su concepción general, y sólo en algunos casos exige la modificación de detalles constructivos y la disposición del pertinente sistema de defensa alrededor de las pilas. En este artículo, se presenta de un modo sucinto la formulación general de la dinámica del impacto, cuya aplicación al caso particular del choque del barco con las defensas de las pilas corresponde a una simple aplicación. Alternativamente, se expone un método aproximado para el estudio estructural de los efectos del impacto. Finalmente, se comentan las posibilidades de aplicación de los procedimientos anteriores a un puente sobre el Estrecho y se dan indicaciones de los programas de computador más importantes que permiten un análisis de este tipo.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
Pese a que Loja (Ecuador) presenta una gran riqueza ecológica y cultural, ni su patrimonio etnobotánico, ni cómo afecta el uso de las plantas al estado de conservación de los ecosistemas es bien conocido. Por ello se ha realizado un estudio etnobotánico y ecológico para conocer el papel que han jugado las plantas en la cultura tradicional de la provincia y comprender qué factores influyen en su uso. Durante 2006 y 2008 se entrevistó a 770 informantes (196 de ellos vendedores en mercados locales) y se realizaron 373 transectos en 118 remanentes boscosos, 51% indicados por la gente como lugares de recolección. Se ha registrado el saber etnobotánico de 717 especies pertenecientes a 143 familias, la mayoría nativas del Ecuador, 31 de ellas endémicas. Ello supone un 15% de la flora total de Loja. Sin embargo especies introducidas como Matricaria recutita o Eucalyptus globulus están entre las más citadas. La mayor riqueza se obtuvo para las plantas medicinales (509 especies), que se usan sobre todo para tratar las llamadas “inflamaciones internas” (210 especies, Matricaria recutita y Melissa officinalis principalmente) y trastornos del sistema digestivo (188, Matricaria recutita y Mentha pulegium). En los mercados se venden 169 especies, la mayoría para elaborar la bebida típica llamada horchata (65) y para curar “inflamaciones internas” (36). Además se emplean 414 con otros fines (161 para leña, 142 para alimentación humana, 133 para construcción de viviendas y muebles, 98 para artesanías, 89 ornamentales, 27 tintóreas y 72 para otros usos). En los remanentes se inventariaron 19.156 individuos correspondientes a 1440 especies de 153 familias, de las cuales 437 son empleadas por la población. La riqueza media de especies y de plantas útiles fue significativamente mayor en los remanentes recolectados lo cual parece demostrar que la explotación no afecta negativamente a la diversidad de especies al generar variabilidad de hábitats. También se vio que la proporción de especies útiles disminuye en los remanentes más diversos. También se observó que la probabilidad de uso de una especie aumenta con la frecuencia y la abundancia y disminuye con la distancia a los remanentes en los que aparece. Este patrón general no se cumple para las especies medicinales y ornamentales. Estos datos demuestran una gran riqueza de conocimientos tradicionales y una gran vitalidad del uso de muchas especies y corroboran la hipótesis de que los recursos vegetales más accesibles y abundantes son, salvo excepciones, los más empleados por la gente. ABSTRACT Although the Loja province (Ecuador) has a great ecological and cultural richness, neither the ethnobotanical heritage nor the incidence of plant use on ecosystems conservation it is well known. We have made an ethnobotanical and ecological study to determine the role played by plants in the traditional culture of the province and to understand what factors influence their use. Between 2006 and 2008 we interviewed 770 informants (196 of them vendors in local markets) and inventoried 373 transects in 118 forest remnants (51% of them indicated by people as collection sites). We recorded the ethnobotanical knowledge for 717 species belonging to 143 families, mostly native of Ecuador, 31 of which are endemic. This represents about a 15% of the total flora of Loja. However introduced species such as Matricaria recutita and Eucalyptus globulus are among the most cited. Medicinal plants (509 species) were the most abundant, and are used primarily to treat so‐called "internal inflammation" (210 species, with Matricaria recutita and Melissa officinalis as the most valued) and disorders of the digestive system (188, Matricaria recutita and Mentha pulegium). We recorded 169 species sold in markets, most of them (65) employed to elaborate a typical drink called horchata and to heal "internal inflammation" (36). In addition 414 are used for other purposes: 161 for firewood, 142 for human consumption, 133 for construction and furniture, 98 for handicrafts, 89 as ornamental, 27 for dye and 72 for other uses. In the forest remnants, 19,156 individuals corresponding to 1440 species of 153 families, 437 of which are used by the population were inventoried. The average species richness (both total and of useful plants) was significantly higher in exploited remnants, which suggest that exploitation does not adversely affect species diversity and instead increases habitat diversity. We also found that the proportion of useful species decreases in decreased in the most diverse remnants. It was also observed that the probability of use of a species increases with its frequency and abundance and decreases as the distance form localities to remnants where it appears increases. This general pattern however does not hold for medicinal and ornamental species. These results show the extraordinary wealth of traditional knowledge and the great vitality in the use of many species and support the hypothesis that most accessible and abundant plant resources are the most used by people.
Resumo:
Las discrepancias entre las funciones de distribución acumulada de la tensión de fractura del vidrio es una de las dificultades encontradas para incorporar la filosofía probabilista para el diseño del vidrio. Se utilizan tres ensayos para la caracterización de la tensión de fractura del vidrio: flexión de viga en cuatro puntos, ensayo con dobles anillos concéntricos con pequeña superficie y con gran superficie. La comparación directa de las funciones de distribución presenta discrepancias claras relacionadas con el estado de tensión -uni o biaxial- y con el comportamiento de la estructura -grandes o pequeños desplazamientos. Con un procedimiento iterativo, se ajustan los resultados de los ensayos (carga - presión- probabilidad de rotura) a través de un modelo de elementos finitos que permite estimar las aéreas efectivas de cada espécimen. Los parámetros finales para la tensión de rotura mejoran la estimación de la probabilidad de la carga de rotura de cada probeta con errores inferiores al 10%.
Resumo:
Considero que el tema que he tratado es arduo y complicado aunque tiene su compensación, ya que me abrió los ojos en el terreno de los procesos anatomo-fisiológicos de la motilidad. Por otro lado me permitió conocer aunque no muy profundamente las bases y fundamentos de la Sofrología, que encaja en un mundo de hoy en el que hay tantos adelantos y evolucionan constantemente los métodos de preparación tanto psíquicos como físicos, y que el conocer esta importante ciencia nos puede ayudar sobremanera a conseguir un mayor control y dominio de nuestra persona. La motilidad no es solo el conjunto de huesos, articulaciones y músculos sino que el S.N.C. se encarga de regular todos esos mecanismos, desde el tono muscular hasta la acción muscular por conducta reflexiva que es la que libre de toda actividad emotiva es capaz de planear serenamente un movimiento con un fin determinado. Nuestro cuerpo es capaz de realizar un movimiento gracias a esas formaciones anatómicas, huesos, articulaciones y músculos.
Resumo:
Este estudio analiza la supervivencia de las plántulas de rebollo (Quercus pyrenaica) en el Parque Nacional de Cabañeros donde existe una alta densidad de ungulados (ciervos y jabalíes fundamentalmente). Nuestra hipótesis es que la preferencia de los fitófagos ramoneadores por ciertas especies de matorral puede modificar la probabilidad de que una plántula de roble que crece junto al matorral sea dañada. Para ello se plantaron 300 plántulas bajo tres microhábitats: a) bajo matorral no apetecido por cérvidos; b) bajo matorral apetecido y preferido por cérvidos y c) en zonas sin cobertura de matorral. Los resultados del seguimiento de las plántulas desde la primavera (marzo) hasta el otoño (octubre) de 2011 indican que sólo un 19,6% de las plántulas sobrevivieron todo el periodo vegetativo. Un 48,8% de las plántulas sobrevivieron hasta junio, siendo el jabalí el principal responsable de la mortalidad de plántulas durante los primeros meses (marzo y abril), provocando el 83,6% de las muertes. En general, sobrevivieron más plántulas bajo cobertura de matorral (28% de supervivencia) que en claro (3%). Las plántulas bajo matorral apetecido por cérvidos presentaron el menor porcentaje de ataque por jabalí (21%), que sin embargo sufrieron un mayor ataque por cérvidos (51%). Los resultados obtenidos pueden ser de una indudable aplicación para la gestión y conservación de los rebollares y otras formaciones de Quercus sometidas a superpoblación de ungulados.
Resumo:
El agua de riego en España se ha reducido del 80 % al 70% tras la rehabilitación de los sistemas tradicionales de riego y el incremento de riegos a presión. La política española ha favorecido la creación de nuevos regadíos con fines sociales, para asentar a la población rural en zonas con disponibilidad de recursos hídricos. Este contexto es aplicable a la Comunidad de Regantes “Rio Adaja” (CCRR), que comenzó a funcionar en 2010 por lo que se la ha elegido para evaluar el uso y productividad del agua y manejo del riego en CCRR modernizadas de la cuenca del Duero. El estudio del manejo del riego se realizó con evaluaciones de campo, el primer año de funcionamiento, en una muestra de sistemas de riego (pivotes centrales, ramales de avance frontal, cobertura total) representativa de los sistemas predominantes en la CCRR. Además, se analizó la carta de riego propuesta por el fabricante de los pivotes centrales, considerando una distribución de caudal continua a lo largo del ramal, y se propuso una nueva carta con emisores de riego que mejoraban la uniformidad de aplicación del agua. El uso del agua en la CCRR se evaluó considerando tanto los indicadores de eficiencia del riego: suministro relativo de riego (anual relative irrigation supply, ARIS), suministro relativo del agua (anual relativewater supply, ARWS), suministro relativo de precipitación (rainfall relative supply, RRS) como los de productividad: productividad del agua (water productivity, WP) productividad del agua de riego (irrigation water productivity, IWP) y productividad de la evapotranspiración (evapotranspiration water productivity, ETWP). Primero, se determinaron: las necesidades hídricas de los cultivos para mantener un contenido de humedad óptimo en su zona radical, el coeficiente dual del cultivo, el agua disponible total (ADP) y agua fácilmente aprovechable (AFA). Después, se estimaron las necesidades hídricas de los cultivos considerando tres años tipo: húmedo, normal y seco correspondientes a la probabilidad de disponibilidad de la precipitación del 20, 50 y 80%, respectivamente. Así mismo, se realizó una encuesta a los regantes de la CCRR para conocer la dosis de riego y rendimiento anual de los cultivos principales durante sus tres años de funcionamiento: 2010-2011, 2011-2012 y 2012-2013.Finalmente, se simuló el efecto del riego y su manejo en la producción de los cultivos y en la productividad del agua. Además, el modelo de simulación AQUACROP (Geerts et al., 2010) se ha utilizado para estudiar la mejora del uso del agua de los cultivos de la CCRR. Dado que este modelo requiere de calibración específica para cada cultivo y cada zona y dado que, de todos los cultivos de la CCRR, sólo el girasol cumplía el requisito, este cultivo fue elegido para estudiar si la estrategia de riego deficitario mejoraría el uso del agua. Los resultados obtenidos indican que el 90% de los sistemas de riego evaluados distribuye el agua con una uniformidad adecuada (CUC≥75%). La simulación de la distribución del agua con las cartas de riego propuestas por el fabricante en pivotes centrales resultó en coeficientes CUC< 75% y sus valores mejoraban al eliminar el aspersor distal. La uniformidad del riego mejoraría si se trabajase con la carta de riego propuesta y que se compone por emisores de riego seleccionados en este estudio. En la mayoría de los cultivos, se aplicó riegos deficitarios (ARIS < 1 en los dos primeros años de funcionamiento de la CCRR y riegos excedentarios (ARIS > 1) el tercer año siendo significativas las diferencias observadas. El manejo del riego fue bueno (0,9 ≤ ARWS ≤1,2) en la mayoría de los cultivos. Así mismo, los indicadores de productividad del agua (WP e IWP (€.m-3)) varió entre cultivos y años estudiados y, destacan los valores observados en: cebolla, patata, zanahoria y cebada. En general, la productividad del agua en los riegos deficitarios fue mayor observándose además, que los índices de productividad mayores correspondieron al año con precipitación mayor aunque, las diferencias entre sus valores medios no fueron significativas en las tres campañas de riego estudiadas. Los resultados apuntan a que la metodología del balance hídrico y las herramientas presentadas en este trabajo (uniformidad de distribución de agua, indicadores de eficiencia del uso de agua y de su productividad) son adecuadas para estudiar el manejo del agua en CCRR. En concreto, la uniformidad en la aplicación del agua de la CCRR mejoraría seleccionando emisores de riego que proporcionen una mayor uniformidad de distribución del agua, lo que conllevaría a cambiar el diámetro de la boquilla de los emisores y/o eliminar el aspersor distal. Así mismo, puede ser de interés adoptar estrategias de riego deficitario para incrementar la productividad en el uso del agua, y las rentas de los regantes, para lo cual se propone utilizar un patrón de cultivos de referencia. Finalmente, el riego deficitario puede ser una estrategia para mejorar la eficiencia y productividad en el uso del agua de la CCRR siempre que lleve asociado un manejo del riego adecuado que resulta, relativamente, más fácil cuando se dispone de sistemas de riego con una uniformidad de aplicación alta. Sin embargo su aplicación no sería aconsejable en los cultivos de remolacha azucarera, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 75%, y maíz, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 65%. ABSTRACT The irrigation scheme modernization and the increase of sprinkler irrigation area have reduced the irrigation water use from 80 to 70%. The national irrigation policy favored the creation of new irrigation schemes with the purpose to settle the rural population in areas with availability in water resources. Within this context, the irrigation district “Río Adaja” (CCRR) started in 2010 so, it has been chosen as a case study to evaluate the water use and the irrigation management in a modernized CCRR. Several field evaluations were carried out during the first operation year, in a sample of irrigation systems (center pivot, moving lateral and solid set) selected among all the systems in the CCRR. Likewise, the manufacturer irrigation chart for the center pivot systems has been considered and the pressure and discharge distribution along the pivot have been estimated, assuming a continuous flow along the pipe. Then; the sprinkler nozzles were selected order to increase the uniformity on water application. The water use in the CCRR has been assessed by considering the water use efficiency indicators: annual relative irrigation supply (ARIS), annual relative water supply (ARWS), relative rainfall supply (RRS) and also the productivity indicators: water productivity (WP), irrigation water productivity (IWP) and evapotranspiration water productivity (ETWP). On the one hand, it has been determined the crop water requirement (to maintain the optimal soil water content in the rooting zone), the dual crop coefficient, the total available water and the readily available water. The crop water requirement was estimated by considering the typical wet, normal and dry years which correspond to the probability of effective precipitation exceedance of 20, 50 and 80%, respectively. On the other hand, the irrigation depth and crop yield by irrigation campaign have been considered for the main crops in the area. This information was obtained from a farmer’s survey in 2010-2011, 2011-2012 and 2012-2013. For sunflower, the irrigation effect and its management on the crop yield and water productivity have been simulated. Also a deficit irrigation strategy, which improves the water resources, has been determined by means of AQUACROP (FAO). The results showed that 90% of the evaluated irrigation systems have adequate irrigation water application uniformity (CUC ≥ 75%). The CUC values in center pivots, which were calculated using the manufacturer irrigation chart, are below < 75% . However, these values would increase with the change of emitter nozzle to the proposed nozzles selection. The results on water use showed a deficit irrigation management (ARIS < 1), in most of crops during the first two operation years, and an excess in irrigation for the third year (ARIS > 1) although non-significant difference was observed. In most cases, the management of irrigation is adequate (0,9≤ ARWS≤ 1,2) although there are differences among crops. Likewise, the productivity indicators (WP and IWP (€.m-3)) varied among crops and with irrigation events. The highest values corresponded to onion, potato, carrot and barley. The values for deficit irrigation were the highest and the productivity indicators increased the year with the highest effective precipitation. Nevertheless, the differences between the average values of these indicators by irrigation campaign were non-significant. This study highlights that the soil water balance methodology and other tools used in the methodology are adequate to study the use and productivity of water in the irrigation district. In fact, the water use in this CCRR can be improved if the irrigation systems were designed with higher water distribution uniformity what would require the change of sprinkler nozzles and/or eliminate the end gun. Likewise, it is advisable to set up deficit irrigation strategies to increase the water productivity taking into account certain limits on water application uniformities. In this respect, a reference cropping pattern has been proposed and the limits for water uniformity have been calculated for several crops.
Resumo:
En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.